楽天、7000億パラメータの日本語LLMをオープン公開
- •国内最大級の7000億パラメータを持つ日本語特化LLMを無償公開
- •MoEアーキテクチャ採用により、高度な推論と効率的な処理を両立
- •経産省のGENIACプロジェクトを通じ、Apache 2.0で提供開始
楽天グループは、日本語環境におけるAI活用の新たなスタンダードを確立すべく、最新の大規模言語モデル「Rakuten AI 3.0」の提供を開始しました。このモデルは、経済産業省および新エネルギー・産業技術総合開発機構(NEDO)が主導する生成AI開発支援プロジェクト「GENIAC」の第3期採択事業として開発されたもので、国内最大級の規模となる約7000億ものパラメータを備えています。2025年12月の先行発表後、さらに高度なファインチューニング(特定のタスクに最適化するための微調整)を施したことで、論理的推論や競技数学、指示追従といった多角的な評価指標において、世界トップクラスの既存モデルに匹敵する、あるいはそれを凌駕する極めて高いパフォーマンスを実現しました。
技術的な中核をなすのは、複数の専門的なニューラルネットワークを効率的に切り替えて処理を行う「Mixture of Experts(MoE)」アーキテクチャの採用です。この手法により、膨大な知識量を維持しつつも、計算リソースを動的に割り当てることが可能となり、大規模モデル特有の処理負荷を最適化しています。楽天が長年蓄積してきた膨大なバイリンガルデータと、オープンソースコミュニティの最新知見を融合させることで、日本語のニュアンスや文化的な背景を深く理解した文章生成や、複雑なプログラミングコードの記述、さらには高度な文書解析といったプロフェッショナルな用途にも耐えうる精度を達成しています。
最も注目すべき戦略的な判断は、本モデルをApache 2.0ライセンスに基づき、オープンモデルとして無償公開した点にあります。楽天の公式リポジトリを通じてモデルウェイト(学習済みの重みデータ)が一般に開放されたことで、企業や開発者は自社のインフラ上でセキュアかつ自由にAIアプリケーションを構築できるようになります。これは、楽天が提唱する全社的なAI変革「AI-nization」の成果を広く社会に還元し、国内のAIエコシステム全体の底上げと技術革新を加速させようとする強い意志の表れです。単なる一企業のプロダクト更新を超え、日本のAI競争力を再定義する重要な一歩となることが期待されます。