OpenAI、SASTを超えた新セキュリティ手法を公開
2026年3月17日 (火)
- •静的解析に依存せず、プログラムの設計意図から脆弱性を分析
- •z3-solverやマイクロファジングで複雑なロジックエラーを特定
- •サンドボックス実行による実証でトリアージの負担を大幅軽減
OpenAIは、脆弱性発見のためのエージェント型ツール「Codex Security」の設計思想について詳細を公開した。従来のセキュリティ対策では、プログラム内を流れるデータの動きを追跡するSASTが主流であったが、OpenAIはこれだけでは不十分だと主張している。SASTは単純なバグには有効なものの、セキュリティチェック自体に論理的な欠陥があるような複雑な意味論的エラーを見逃してしまう傾向があるからだ。
Codex Securityは、従来のレポートに頼るのではなく、リポジトリの構造と設計意図を起点とするアプローチを採用した。セキュリティを単なるチェックリストではなく「振る舞い」の問題として定義し、コードの一部を検証するマイクロファジングやz3-solverを活用する。この仕組みにより、従来のツールでは検出が困難だった整数オーバーフローなどの複雑なロジックエラーを、数学的な根拠に基づいて特定することが可能になった。
特に画期的なのは、サンドボックス環境で実際のエクスプロイトを実行し、Proof of Conceptを提示する点である。脆弱性の存在を推測するのではなく具体的な証拠をもって証明するため、人間による確認作業、いわゆるトリアージの負担を劇的に軽減できる。ソフトウェアの本来の意図に焦点を当てることで、AIはより高度な論理的欠陥を自律的に見つけ出せるようになった。