AGI経済:自動化の進展とバイオセキュリティの脅威
- •MITの研究は、AGI経済のボトルネックが自動化の速度と人間の検証能力の差にあると定義した。
- •LLMを利用した初心者はバイオ兵器関連タスクの精度が4.16倍向上し、安全保障上の深刻な懸念が生じている。
- •新たなベンチマーク「GAMESTORE」により、LLMのゲーム性能は人間レベルの30%未満であることが判明した。
汎用人工知能(AGI)への移行は、もはや単なる技術的な障壁ではなく、深刻な経済的転換点となっている。MITとUCLAの研究者によれば、タスクの自動化コストが急落する中で、成長の主要なボトルネックは「人間の検証帯域(human verification bandwidth)」へと移行しつつある。これは、AIが生み出す膨大な成果を人間が監査・検証する能力には限界があることを示唆している。
このシフトは、AIエージェントが人間の真の意図ではなく、数値化しやすい代理指標ばかりを最適化してしまう「空洞化経済(Hollow Economy)」のリスクを孕んでいる。その結果、見かけ上の生産量は高くても、実質的な有用性が崩壊する可能性があるのだ。これに対処するため、専門家は可観測性ツールへの積極的な投資や、エントリーレベルの職務が消えることで生じる経験のギャップを埋める「合成メンターシップ」の必要性を主張している。
経済的な側面に加え、AIのデュアルユース(軍民両用)の性質も安全保障上の課題を突きつけている。データ評価企業であるScale AIによる最近の調査では、最先端モデルへのアクセスにより、初心者が複雑なバイオセキュリティタスクにおいて4.16倍も正確に作業を遂行できることが示された。LLMは万能な教師として優れている一方で、専門的で危険な知識を取得する障壁を同時に下げているのである。
一方で、デジタルの推論と物理的な空間調整能力の間には、依然として大きな隔たりが存在する。新たなAIベンチマーク「GAMESTORE」では、高度なモデルが単純なゲームに苦戦し、人間の基準値の30%未満のパフォーマンスにとどまっていることが判明した。こうしたデジタル空間での苦戦とは裏腹に、Physical Intelligenceのようなスタートアップは、洗濯物たたみなどの実世界のタスクをこなすロボットの実装をすでに進めている。