MN-Core Technology Conference 25を開催
- •PFNが初のMN-Coreカンファレンスを開催し、独自チップの設計思想とSDKの全貌を公開
- •LLM推論におけるTokens/secの重要性を強調し、Agentic AI向けのインフラ最適化を推進
- •半導体微細化の限界に対し、ニアメモリ設計とAIによるチップ設計の自動化で対抗
Preferred Networks(PFN)は、独自開発のAIアクセラレータ「MN-Core」に焦点を当てた初の技術カンファレンス「MN-Core Technology Conference 25」を開催しました。生成AIの爆発的な普及により、計算資源の確保がグローバルな競争軸となる中、PFNは自社開発のシリコンからソフトウェアスタックまでを垂直統合した計算基盤の全貌を明らかにしました。本イベントでは、これまでの研究開発フェーズから、商用AIクラウドサービス「Preferred Computing Platform」を通じた社会実装フェーズへの移行が鮮明に打ち出されました。
セッションの核心となったのは、半導体微細化の物理的限界(ムーアの法則の鈍化)に対する「アーキテクチャによる挑戦」です。MN-Coreは、プロセッサの極めて近くにメモリを配置する「ニアメモリ」思想を徹底しており、データの移動距離を最小化することで圧倒的な電力効率と演算性能を両立させています。これは、特に推論時のスループット(処理能力)が重要となる大規模言語モデル(LLM)の運用において大きな優位性を持ちます。推論速度、すなわち「Tokens/sec」の向上は、AIが自律的に思考し外部ツールを操作する「Agentic AI」の実現に直結する極めて重要な指標となっています。
また、将来の展望として、チップ設計そのものにAIを導入する開発手法も示唆されました。物理設計の自動化や高速化にAIを活用することで、通常は数年単位を要する半導体開発のリードタイムを劇的に短縮し、日々進化するアルゴリズムにハードウェアを適応させる狙いです。ドキュメントやSDKさえも「人間だけでなくAIが読み解くこと」を前提に最適化されるという指摘は、AI開発の現場そのものが次のフェーズに移行していることを強く印象付けました。ハードウェアとソフトウェアの両輪を自律的に制御できるPFNの強みが、次世代のAIインフラ競争力をどう塗り替えていくのか、今後の展開に注目が集まります。