OpenAI、10代の安全を守るAIモデレーション指針を公開
2026年3月31日 (火)
- •OpenAIがオープンウェイトモデル「gpt-oss-safeguard」向けに、プロンプトベースの安全ポリシーを導入。
- •有害なボディイメージや危険な活動など、若年層に特化した6つのリスク領域をカバー。
- •開発者コミュニティ「ROOST」を通じてオープンソースとして公開し、グローバルな連携を目指す。
OpenAIは、10代を対象としたAI体験を開発するエンジニア向けに、特化した安全ポリシーの提供を開始した。従来の固定的なルール設定に頼るのではなく、OpenAIのオープンウェイト型モデレーションモデルであるgpt-oss-safeguardに対する自然言語プロンプトとして構築されている点が大きな特徴だ。テンプレート化されたこれらのポリシーを提供することで、コンテンツの分類やフィルタリングを行う「クラス分類器」の作成が容易になり、AIとの対話における安全性と年齢への適合性がより確実に担保されるようになる。
今回の取り組みでは、若年層ユーザーに特有の6つのリスク領域、すなわち過激な暴力、有害なボディイメージ、危険な行動への挑戦、恋愛目的のロールプレイ、そして年齢制限商品の入手が重点的に扱われている。開発者はこれらのプロンプトを活用して、汎用的なフィルターよりも精密に、ユーザー投稿のリアルタイムな選別や事後監査を行うことが可能だ。これは、成人と比較して10代のユーザーには独自のデジタル保護とよりきめ細かなモデレーションが必要であるという、業界内での認識の高まりを裏付けている。
開発の透明性と協力を促進するため、これらのポリシーはROOST Model Communityを通じて一般に公開された。このオープンソース方式により、各国の開発者は現地の言語や文化的な文脈に合わせてフレームワークを柔軟に調整できるようになる。コモン・センス・メディアなどの専門組織とも連携することで、OpenAIは抽象的な安全原則を、実際のプロダクト運用で機能する具体的な技術ツールへと落とし込むことを目指している。