OpenAI、AI挙動の指針「Model Spec」を発表
2026年3月30日 (月)
- •OpenAIは、AIのアライメントを明文化するための「Model Spec」フレームワークを導入した。
- •指示の衝突を解決するため、OpenAIやユーザーの優先順位を定める「Chain of Command」システムを採用。
- •ガイドラインの遵守状況を測定する評価スイート「Model Spec Evals」により、挙動の改善を図る。
OpenAIは「Model Spec」を公開した。これは、AIの挙動をブラックボックスのような予測不可能性から、明文化された読みやすいガイドラインへと移行させるための包括的なフレームワークである。AIシステムが高度化するにつれ、モデルが指示をどう処理し、ユーザーのニーズを優先し、安全性の境界を維持するかについての明確な設計図が社会的に求められている。その目的は、AIの振る舞いを単なる学習データの結果ではなく、公開された意図的なポリシーの反映として、予測可能な環境を構築することにある。
このシステムの核心は、相反する入力が発生した際の解決策を規定する階層構造「Chain of Command」だ。OpenAI、サードパーティ開発者、そしてエンドユーザーからの指示を分類することで、ユーザーが明示的に要求した場合であっても、「ハードルール」と呼ばれる基本的な安全規則を回避できない仕組みを保証している。この階層構造により、一貫したユーザー体験を提供する標準的なデフォルト設定を維持しつつ、開発者がベースモデル上に特殊なツールを構築できる柔軟性も確保された。
理論と実践のギャップを埋めるため、OpenAIは「Model Spec Evals」の提供も開始する。この評価スイートは、特定のシナリオを用いて、モデルの実際の出力がModel Specに記されたポリシーと一致しているかをテストするものだ。ガイドラインを固定された規則ではなく、進化し続ける文書として扱うことで、AIの挙動を反復的に洗練させていく狙いがある。これにより、科学や教育などの複雑な実社会のタスクを担う自律型エージェントが、制御可能かつ有益な存在であり続けることを目指している。