Metaが独自AIチップ開発を加速、2027年までのロードマップを公開
- •2027年までに4世代におよぶ次世代AIチップ「MTIA」のロードマップを発表
- •メモリ帯域幅を4.5倍に拡大し、生成AIの推論処理に特化した新アーキテクチャを採用
- •チップレット設計の導入により、6ヶ月周期の迅速なハードウェアリリースを目指す
Metaは、自社プラットフォームにおける膨大な計算需要に応えるため、独自チップ戦略を強力に推進している。新たに公開されたロードマップでは、300シリーズから500シリーズに至るまで、MTIA(Meta Training and Inference Accelerator)の4世代にわたる開発計画が示された。同社は6ヶ月という極めて短い開発サイクルを採用することで、モデルアーキテクチャの急速な進化にハードウェアの性能を追従させる狙いだ。この戦略の核となるのが、再利用可能なハードウェアブロックであるチップレットを活用したモジュール設計である。これにより、従来の製造プロセスのような長いリードタイムを要することなく、演算やネットワークといったコンポーネントを個別にアップグレードすることが可能になった。
今回の戦略において最も重視されているのは、AIモデルがコンテンツを生成する段階である「推論」だ。推論はMetaの運用ワークロードの大部分を占めており、次世代のMTIA 450および500では、メモリスループットが大幅に強化された。これにより、大規模なテキストや画像生成におけるボトルネックが解消される見込みだ。また、開発者がスムーズに導入できるよう、これらのチップはPyTorchネイティブなソフトウェアスタックに直接統合されている。Tritonコンパイラなどの使い慣れたフレームワークを通じて、研究者はソフトウェアの複雑さを意識することなく、独自の高性能ハードウェア上にモデルをデプロイできる環境が整った。
MTIAファミリーは単なる性能向上にとどまらず、標準化されたラックアーキテクチャや水冷システムの採用により、データセンターへのシームレスな統合も考慮されている。ハードウェアとソフトウェアを垂直統合することで、Metaは外部ベンダーへの依存を減らし、数十億規模のユーザー体験を支えるコストの削減を目指す。この取り組みは、独自チップをインフラの主軸に据えるものであり、Llamaファミリーや将来の生成AIシステムに最適化された専用アクセラレータの時代へと移行を加速させるだろう。