Amazon、AIエージェントの安全性を高める制御機能を導入
2026年3月12日 (木)
- •Amazon Bedrock AgentCoreは、外部のCedarポリシーを使用してAIエージェントのツール利用を決定論的に制御する。
- •自然言語のルールを監査可能なCedarコードに自動変換し、アイデンティティを認識したセキュリティ管理を実現する。
- •実行時にAgentCore Gatewayがすべてのツールリクエストを遮断し、不正なアクセスや操作を未然に防ぐ。
医療などの規制の厳しい分野でエージェンティックAI(自律型AI)を導入する場合、その推論の柔軟性は大きな利点となる一方で、本質的な予測不能さがセキュリティ上の懸念事項となっている。従来の安全対策はアプリケーション内にロジックを埋め込む「ラッパーコード」に依存することが多く、これでは監査が困難だ。さらに、敵対的な入力や予期せぬ推論パスによってエージェントの論理が操作された場合、システム全体が脆弱性にさらされるリスクがあった。
Amazon Bedrock AgentCoreは、ポリシーの適用をエージェントの外部に完全に切り離すことで、この課題を解決する。高速な処理と数学的な自動分析を目的に設計された認可言語「Cedar」を活用することで、開発者はエージェントに対して厳格な境界線を設定できるようになった。これらのポリシーはゲートウェイ層で強制されるため、データベースやAPI、外部ツールへのリクエストは、エージェントがアクションを実行する前に必ず決定論的なルールに照らして照合される。
このシステムでは、日常的な英語の記述からCedarポリシーを生成できるため、複雑なビジネス要件を技術的な制御へとスムーズに移行できる。例えば医療現場において、特定のユーザーの身元や権限がリクエストと一致しない限り、エージェントが患者の記録にアクセスしたり予約を入れたりすることを確実に阻止する。これにより、基盤となるモデルが指示をどのように解釈したかにかかわらず安全性が保証される、「デフォルト・デナイ(原則拒否)」の体制が構築されるのだ。