Sakana AI、大型モデルを日本仕様へ適応
- •Sakana AIが事後学習技術「Namazu」を発表し、独自のチャットサービスを公開
- •LlamaやDeepSeek等の海外製大型モデルを日本の文化的・社会的文脈に最適化
- •モデル本来の能力を保ちつつ、政治的トピックでの回答拒否やバイアスを是正
AI開発の最前線では現在、膨大な計算資源を要する「事前学習」の担い手が米中の巨大テック企業に集約されつつあります。こうした中、東京を拠点とする Sakana AI は、公開された高性能な「オープンウェイト基盤モデル」を戦略的に活用し、各国の文化や価値観、安全保障上の要件に合わせて最適化する「事後学習(post-training)」技術の重要性を提唱しました。その技術実証の第一弾として発表されたのが、日本仕様の試作モデルシリーズ「Namazu」(α版)と、それを搭載した「Sakana Chat」です。
Namazu シリーズの最大の特徴は、Llama-3.1-405B や DeepSeek-V3.1 といった世界最高水準のベースモデルが持つ推論・コーディングなどの基礎能力を損なうことなく、日本特有の文脈への適応を果たした点にあります。海外製モデルには、開発元の地域のイデオロギーや情報統制に起因するバイアス、あるいは政治的にデリケートな話題への回答拒否といった課題が不可避的に含まれます。Sakana AI は独自のデータセットを用いた事後学習により、客観的な事実に基づいた多角的な応答を実現し、モデルの「自己検閲」を大幅に改善することに成功しました。
具体的な成果として、ベースモデルである DeepSeek-V3.1-Terminus が特定の質問に対して 72% という高い割合で回答を拒否したのに対し、事後学習を施した Namazu モデルではその拒否率がほぼ 0% にまで低下しました。これは、技術的なアプローチによって外部的な制約を取り除き、モデル本来のポテンシャルを日本のユーザーが安全かつ効果的に引き出せることを示唆しています。また、Web検索機能との統合により、最新のニュース情報をリアルタイムで収集・統合して回答する能力も備えており、単なる対話エンジンを超えた実用的なツールとしての側面を強調しています。
同社は今後、複数のモデルを最適に制御する技術やエージェント技術を統合し、より高度な AI ソリューションの提供を目指すとしています。今回の Namazu シリーズの公開は、巨大な基盤モデルを各国のニーズに合わせて「飼い慣らす」ための有力な手法を提示したと言えるでしょう。技術の民主化が進む中で、こうした事後学習によるローカライズ技術は、日本が独自の AI 競争力を維持するための鍵となるはずです。