Meta AIが科学研究AI評価指標「AIRS-Bench」を公開
2026年2月11日 (水)
- •Meta AIが、科学研究の全プロセスを評価する20のタスク群「AIRS-Bench」を発表した
- •AIエージェントは4つのタスクで人間を上回ったが、バイオインフォマティクスを含む他の16タスクでは及ばなかった
- •アイデアの生成から洗練までをテストするこのオープンソース指標により、自律的な研究開発の加速を目指す
Meta AIの研究チームは、AIエージェントが科学的発見という過酷なプロセスを真に遂行できるかを評価する高度なベンチマーク「AIRS-Bench」を発表した。従来のテストが単純な事実やコーディング能力に焦点を当てていたのに対し、このフレームワークは研究ライフサイクル全体をナビゲートする能力を測定する。具体的には、初期のアイデア出しから実験データの詳細な分析、さらには論文を磨き上げるための反復的な修正作業まで、研究のあらゆる段階が評価の対象となる。
ベンチマークは、バイオインフォマティクス、数学、時系列予測といった多様な分野の高度な機械学習論文から抽出された20の難解なタスクで構成されている。興味深いことに、研究チームはあえてベースラインとなるコードを一切提供しておらず、AIエージェントはゼロから問題を解決しなければならない。その結果、現在のAIの能力に興味深いギャップがあることが明らかになった。デジタル研究者たちは4つの特定の領域で人間のベンチマークを凌駕したものの、残りの16領域では力及ばず、勝利したタスクでさえ理論的な限界性能には達していなかったのである。
評価用コードとタスク定義をオープンソース化することで、Meta AIは世界の研究コミュニティにモデルの負荷テストへの参加を呼びかけている。この動きは、大規模言語モデル (LLM)を単なるチャットボットとしてではなく、研究室における潜在的な協力者として捉え直すパラダイムシフトを象徴している。今後、エージェンティックAI(自律型AI)が進化を続ける中で、AIRS-Benchのような指標は、真に自律的な科学的進歩にどれほど近づいているかを測る重要な基準となっていく。