LLMによるCore Warの進化的対抗学習:Sakana AIらがDigital Red Queenを発表
- •日本を拠点とするAIスタートアップのSakana AIとMITの研究チームは、LLMを用いてCore War環境でプログラムを敵対的に進化させる新アルゴリズムを導入した。
- •セルフプレイを通じてRedcodeで記述されたプログラムを進化させた結果、自己複製やデータ爆撃といった高度な戦略が自律的に出現することが確認された。
- •本研究は、Core Warを安全なサンドボックスとして活用し、サイバーセキュリティ等の敵対的環境におけるAIエージェントの適応能力を分析する新たな道を切り開いた。
日本を拠点とするAIスタートアップのSakana AIと、マサチューセッツ工科大学(MIT)の研究チームが共同で発表した「Digital Red Queen(DRQ)」プロジェクトは、古典的なプログラミングゲームである「Core War」を舞台に、LLMにアセンブリレベルのプログラムを記述させ、敵対的な共進化を探求する画期的な試みである。Core Warは仮想マシンのメモリ空間内でプログラム同士が生存をかけて戦うゲームであり、DRQはこの環境下でLLMが自律的にコードを最適化するプロセスを自動化した。従来の静的なベンチマークテストとは根本的に異なり、DRQはセルフプレイのループ構造を採用している。新たに生成される「戦士(Warrior)」と呼ばれる各世代のプログラムは、それ以前の世代が積み上げてきた戦略的な履歴すべてを打ち破ることを目的として進化を続ける。この持続的な淘汰圧により、LLMは仮想マシンのメモリ空間を支配し続けるための、極めて堅牢で洗練された生存戦略を自発的に発見するに至るのである。
研究の過程で特筆すべき点は、異なる進化の系統が、たとえ基盤となるソースコードの実装が異なっていたとしても、最終的に「自己複製」や「メモリ爆撃」、「マルチスレッド実行」といった類似の高度な戦略的挙動にたどり着く「表現型の収束(Convergent Evolution)」が観察されたことだ。これは自然界の進化において、異なる種が同様の生態学的課題を解決するために似通った形態や機能を獲得する現象と酷似している。Core Warはチューリング完全な計算能力を持ちつつも、メインシステムから完全に隔離された安全なサンドボックス環境であるため、サイバーセキュリティのような競争的あるいは敵対的な状況におけるAIエージェントの適応プロセスを詳細に分析するための理想的な実験場となる。このシミュレーションを通じて、研究チームはAIによる自律的な発見が、レッドチーミング(攻撃者視点でのセキュリティ検証)などの高度なタスクをいかに自動化できるかを実証しようとしている。
また、本プロジェクトで採用されている「Redcode」は、命令とデータが同一のアドレス空間を共有するという特性を持つ特殊なアセンブリ言語であり、これによってプログラム自身が自らのコードを書き換える「自己改変コード」の実装が可能となっている。DRQの成果は、極めて単純なセルフプレイの反復であっても、LLMを用いることでAIシステムから複雑かつ汎用性の高い創発的行動を引き出せることを明確に示唆している。これは、将来的に複数のAIエージェントが現実世界の複雑な環境で競合し合う際の挙動を予測する上で、極めて重要な知見を提供するものである。最終的に、このようなAI駆動型の進化プロセスは、未知のサイバー脅威に対する防御策の自動生成や、システムの脆弱性を人間よりも迅速に特定する次世代のセキュリティ技術へと繋がることが期待されている。