6GとAIを繋ぐ、協調型エージェント基盤CORE
- •6Gデバイスと階層型エッジサーバ間で、大規模言語モデル(LLM)エージェントの協調を最適化する「CORE」フレームワークが登場
- •新開発のアルゴリズムが、AIの特定の役割と分散された計算リソースを効率的にマッピング
- •実環境のエッジコンピューティング環境で、システム効率とタスク完了率の飛躍的な向上を確認
6G接続への移行は、あらゆる場所に知能が浸透する「ユビキタス・インテリジェンス」の世界を約束している。しかし、大規模言語モデル(LLM)が要求する膨大な計算負荷は、ネットワークの端(エッジ)にある限られたリソースと衝突することが少なくない。
このギャップを埋めるため、研究者チームは「CORE」と呼ばれるフレームワークを導入した。これは、モバイル端末からサーバーまでが層を成すネットワーク全体で、AIエージェントのチームを指揮・統制するために設計されたものだ。
単一のデバイスに全負荷を負わせるのではなく、タスクを特定の機能的役割に分解して各モデルに割り当てることで、システム全体が調和して動作することを可能にした。
このシームレスな連携を支えるのは、環境のリアルタイム認識、エージェントの役割の動的編成、そして推論を高速化するパイプライン並列化という3つの専門モジュールだ。
なかでも特筆すべきは「ロール・アフィニティ(役割親和性)・スケジューリング」アルゴリズムである。これはAIの特定の役割を、その時点で最も適したハードウェアへ賢くマッピングする技術だ。
これにより、近くにより強力なエッジサーバが存在するにもかかわらず、低電力デバイスが複雑な推論のボトルネックになるといった事態を防いでいる。
実際のテストや6Gの応用シナリオにおいて、COREはシステム効率とタスク完了率を大幅に引き上げた。理論上のシミュレーションに留まらず、現実のエッジコンピューティング・プラットフォーム上での構築にも成功した点は大きい。
予測困難な運用環境下でも、分散されたAIエージェントが堅牢なパフォーマンスを維持できることが証明されたのだ。
協調的かつ分散型の知能へと向かうこのアプローチは、高度なAIを真にモバイルで応答性の高いものにするための重要な一歩となるだろう。