量子テンソルネットワークがAIを劇的に軽量化
2026年2月10日 (火)
- •テンソルネットワークによりLlama 2を90%圧縮し、メモリを27GBから2GBへ削減。
- •量子着想の圧縮技術により、Llama 3.1の消費電力を最大40%カットすることに成功。
- •ニューラルネットワークを介さない新構造により、学習速度を100倍に高速化。
物理学の知見がAIの限界を突破しようとしている。本来は電子の相互作用を記述するために考案された数学的ツール「テンソルネットワーク」が、AI分野における「次元の呪い」を解決する手段として転用されているのだ。モデルが肥大化し続ける中、この手法は巨大なテンソル(多次元データ配列)をより小さく、管理可能な構成要素へと分解する。従来のプルーニングや量子化とは異なり、数学的な根拠に基づいて冗長性を排除するため、モデルの精度を維持したまま大幅な軽量化が可能となる。
スペインのスタートアップ企業であるMultiverse Computingが開発した「CompactifAI」技術は、すでに驚くべき成果を上げている。この技術を用いてLlama 2 7Bモデルを90%以上圧縮し、メモリ使用量を27GBからわずか2GBへと削減することに成功した。これにより、大規模言語モデル(LLM)をインターネット接続なしでスマートフォンや家電上で直接動作させることが現実味を帯びてきた。さらに、運用時のエネルギー効率も向上しており、Llama 3.1モデルでは消費電力を最大40%削減できるという。
研究者たちは現在、既存モデルの圧縮に留まらず、最初からテンソルネットワークに基づいたAIを構築することで、ニューラルネットワークを完全にバイパスする道を模索している。勾配降下法という時間と電力を消費する最適化プロセスを回避すれば、モデルの学習はわずか数秒で完了する。実際、あるデモンストレーションでは、従来のニューラルネットワークよりも100倍高速に学習が進むことが示された。これは、中身が透明で理解しやすく、かつ安価に構築できる「ホワイトボックス型AI」の未来を予見させるものである。