わずか1.15GBで動く80億パラメータの「1ビットLLM」が登場
- •PrismMLが8Bパラメータの1ビットLLM「Bonsai-8B」を発表
- •モデルサイズ1.15GBでスマートフォンやエッジデバイスでの動作を実現
- •従来の量子化とは異なり、最初から1ビット設計で精度を維持
カリフォルニア工科大学発のスタートアップであるPrismMLが、AI業界の常識を覆す新たな挑戦を開始しました。今回発表された「1-bit Bonsai」は、約80億(8B)パラメータという、現代のLLMとしては標準的な規模を持ちながら、メモリ使用量をわずか1.15GBに抑えることに成功したモデルです。一般的に、この規模のモデルを動かすには十数GBのメモリが必要であり、PCやスマートフォンなどの一般的なユーザーデバイスでは実行が困難でした。今回の技術革新により、強力なAI性能をローカル環境で手軽に享受できる未来が大きく近づいています。
本モデルの最大の特徴は、その設計思想にあります。多くの軽量化技術では、学習済みの巨大なモデルを後から圧縮する「量子化」という手法が取られますが、これは往々にして精度の低下を招きます。一方でPrismMLは、入力層からアテンション層、生成ヘッドに至るまでの全レイヤーを、最初から1ビットで学習させるという極めて野心的なアプローチを採用しました。後付けの圧縮ではなく、最初から極限まで情報を削ぎ落とした環境で知能を最適化させることで、高い競争力を持つ性能を維持したのです。
同社が提唱する「インテリジェンス密度」という概念も、これからのAI評価における新しい指標として注目に値します。これは、ベンチマークにおけるエラー率とモデルサイズの比率を計算し、モデル容量あたりどれだけの「知」を提供できるかを数値化したものです。この評価において、1-bit Bonsai 8Bは既存モデルを圧倒する数値を叩き出しており、単なる巨大化競争から、エネルギー効率とメモリ効率を重視した「実用的なAI」へのパラダイムシフトを示唆しています。
このモデルの重みはApache 2.0ライセンスで公開されており、Appleデバイスの「MLX」やNVIDIA環境での「llama.cpp」など、主要な実行環境を幅広くサポートしています。開発者や研究者が自身の端末で高性能なAIを動かす障壁が大きく下がったと言えるでしょう。クラウドへの通信なしで、即座に、かつプライバシーを保護しながら高度な推論が可能なエッジAIの時代は、もはや実験室の中だけの話ではありません。
共同創業者のババク・ハッシビ氏は、AIの未来がモデルのサイズだけで決まるわけではないと強調しています。計算資源、メモリ、そしてエネルギーという制約がある中で、いかにして最大の有用性を引き出すか。その問いに対する一つの答えがこの「1ビット設計」にあります。これは既存のAI開発手法に対する強烈なアンチテーゼであり、今後スマートフォンやIoTデバイスの知能を飛躍的に高めるための、新しい出発点となるはずです。