Anthropicが超高性能AI「Claude Mythos」発表、危険性から一般公開を見送り
- •Anthropicが新AI「Claude Mythos Preview」を発表、ソフトウェア脆弱性の自律的発見・悪用に特化
- •悪用リスクを考慮し一般公開を見送り、信頼できる研究機関への限定的な提供へ
- •AmazonやGoogleと連携し、AI防御研究プロジェクト「Project Glasswing」を始動
2026年4月7日、AI開発企業Anthropicは、新たなフロンティアAIモデル「Claude Mythos Preview」を発表しました。このモデルは、既存のAIとは一線を画す「攻撃的セキュリティ能力」を有しており、ソフトウェアの脆弱性を自律的に特定し、さらにはそれを悪用するコードまで生成できるという極めて強力な機能を備えています。特筆すべきは、これまで人間の専門家や従来の自動ツールでも発見が困難だった、FreeBSDにおける17年前から存在する脆弱性を瞬時に特定したという実績です。この事実は、AIがセキュリティ研究の領域において、すでに熟練のハッカーやセキュリティエンジニアに匹敵、あるいは凌駕する能力に達していることを示唆しています。
通常、AI企業のモデル発表は「性能向上」や「生産性の改善」を強調するものですが、Anthropicは今回、真逆のアプローチを取りました。あまりの能力の高さと、それが悪意ある攻撃者に転用された際の甚大なリスクを考慮し、同社はClaude Mythos Previewを一般公開しないという極めて異例の決定を下しました。この「公開しない」という判断自体が、AIの安全性を最優先する同社の姿勢を象徴しています。これは、AIの進化が単なる利便性だけでなく、サイバー空間における安全保障のあり方を根本から揺るがしている現状を物語っています。
一般公開を制限する一方で、Anthropicは透明性を確保するための取り組みとして「System Card」を公開しました。これはモデルの性能やリスク、安全対策を詳細に記述した文書であり、AIの挙動をブラックボックス化させないという意思が反映されています。さらに同社は、Mythosの持つ防御的側面を最大化させるべく、Amazon Web Services、Apple、Google、Microsoft、NVIDIA、そしてLinux Foundationといった主要企業と手を組み、防御側のセキュリティを強化するプロジェクト「Project Glasswing」を開始しました。これは、AIによる攻撃をAIで防ぐという、いたちごっこが加速する未来のセキュリティ戦線を見据えた戦略的協力です。
さて、大学でCS(コンピュータサイエンス)を専攻していない方にとっても、このニュースが意味する重要性は極めて大きいものです。AIという技術は、もはやテキスト生成や画像作成のようなエンターテインメントの枠を超え、社会のインフラであるソフトウェアそのものの脆弱性を突く武器になり得るという現実に直面しています。Mythosの例は、AIが人間の認知限界を突破するスピードで「穴」を見つけることができることを証明しました。これは、未来のデジタル社会において「安全」を定義すること自体が、人間だけの仕事ではなくなることを意味します。
今後、私たちが利用する多くのデジタルサービスにおいて、背後でAIが脆弱性を監視し、攻撃を防ぐという「AI対AI」の攻防が日常化していくでしょう。Mythosのようなモデルが研究コミュニティでどのように制御され、活用されていくかは、今後のインターネットの安全性に直結します。技術は常に中立であり、それを矛にするか盾にするかは、開発者とそれを運用する社会の倫理にかかっています。今回のAnthropicの判断は、AIの能力を過小評価することなく、かといって恐怖に煽られることもなく、技術の暴走を未然に防ごうとする「AIガバナンス」の新たな試金石となるはずです。
今回のニュースから私たちが学ぶべきは、AIがもたらすのは「性能」だけではないという点です。それは同時に「リスクの民主化」でもあります。誰もが強力な攻撃手段をAIを通じて手にできる時代において、開発側がどのようなガードレールを設けるか、そして利用側である私たちが技術に対してどのようなリテラシーを持つべきか。Claude Mythosという存在は、まさにその境界線上に立っているのです。