OpenAI、ティーン保護用安全ツールを公開
- •OpenAIは、開発者がティーン利用者に適した保護策を導入できるよう、プロンプトベースの安全ポリシーをリリースした。
- •新たなガイドラインはgpt-oss-safeguardと統合され、自傷行為、性的内容、危険な活動といったリスクの分類を支援する。
- •業界全体の青少年保護を促進するため、ROOST Model Communityを通じてオープンソースとして公開された。
OpenAIは、AIアプリケーションにおいてティーン世代の利用者を守るための、開発者向けプロンプトベース安全ポリシーを導入した。未成年者には成人とは異なるデジタル保護が必要であるとの認識に基づき、これらのポリシーは、同社のオープンウェイト安全モデルであるgpt-oss-safeguardと直接連携する実行可能なプロンプトとして構成されている。この手法により、抽象的な倫理目標を、リアルタイムでのコンテンツフィルタリングや履歴データの分析が可能な機能コードへと変換する複雑なプロセスが大幅に簡素化された。
初回のリリースでは、過激な暴力、性的コンテンツ、有害な身体イメージなど、青少年の発達に関わる6つの重要な懸念領域が対象となっている。あらかじめ設定されたプロンプトを提供することで、OpenAIは「ロマンチックなロールプレイ」や「危険なバイラル・チャレンジ」といった繊細なトピックに対し、的確な運用ルールを策定することに苦慮していた開発者の参入障壁を下げることを狙った。これらのツールは、コモン・センス・メディアやeveryone.aiの児童安全専門家との協力により磨き上げられており、思春期の脆弱性に関する最新の心理学研究が反映されている。
この取り組みは、単一の検問所に頼るのではなく、複数の保護層を活用するセキュリティ戦略「多層防御」への大きなシフトを浮き彫りにしている。これらのポリシーは堅牢な出発点を提供するものであるが、OpenAIはこれが万能の解決策ではないことも強調した。開発者には、各プラットフォーム独自の細かなニュアンスに対応するため、これらのオープンソーステンプレートを継続的に改善していくことが推奨されている。ROOST Model CommunityのGitHub上でリソースを共有することで、同組織は世界のオープンウェイト・エコシステムにおける安全性の標準的な底上げを図りたい考えだ。