AWS、自動推論でAI回答の正確性を数学的に証明
- •AWSが、数学的論理を用いて大規模言語モデル(LLM)の正確性を検証するオープンソースのチャットボットを公開した。
- •ハルシネーション(もっともらしい嘘)を含む回答を、ポリシーに基づいた推論チェックによって自動修正する反復ループを採用した。
- •金融や医療などの規制の厳しい業界向けに、透明性を確保する検証可能な証明ログを提供可能にした。
AWSは、大規模言語モデル(LLM)の持つ創造的な流暢さと、規制の厳しい業界で不可欠な厳格な正確性を両立させるための新しいリファレンス実装を発表した。一般的なAIモデルは、確率に基づいて次に続く単語を予測する仕組みであるため、事実とは異なる情報を自信満々に生成する「ハルシネーション」が大きな課題となっている。これに対しAWSは、単純な統計的推測ではなく、特定のルールに従って記述の真偽を数学的論理で証明するコンピュータサイエンスの一分野、「自動推論」を統合することでこの問題に正面から取り組んだ。
このシステムの核心は、Amazon Bedrockプラットフォームを活用した「反復的な書き換えループ」にある。ユーザーが質問すると、モデルはまず回答の草案を作成し、それがApplyGuardrailインターフェースを介して自動推論チェックにかけられる。システムは回答が正しいかどうかを単に推測するのではなく、論理的演繹(えんえき)を用いて曖昧さや事実誤認を特定する。不備が見つかった場合、システムはAIに具体的なフィードバックを提供し、AIは定義された安全性および正確性のポリシーに準拠するまで回答を書き直す仕組みだ。
このプロセスは、回答が数学的に妥当であると検証されるまで繰り返される。また、開発者や監査人向けに、最終的な出力の検証に使用された具体的な論理と証明を含む包括的な監査ログが生成される点も重要だ。これは、ユーザーが結果を盲信するしかなかった従来の「ブラックボックス型」AIシステムからの大きなパラダイムシフトである。Amazon Bedrockの柔軟性と形式論理の精密さを組み合わせることで、AWSは金融や法務、運用技術といった機密性の高い分野でも活用できる、信頼性の高いエージェンティックAI(自律型AI)の実現への道を切り拓いている。