AWS、LangGraphとSageMakerでエージェントAIを効率化
2026年3月2日 (月)
- •AWSがLangGraphとAmazon SageMakerを活用した対話型エージェント向けのサーバーレスアーキテクチャを導入
- •Amazon BedrockとDynamoDBを統合し、対話の状態と文脈を永続的に保持するシステムを構築
- •有向グラフを用いて、複雑なカスタマーサービスのワークフローやツール連携を制御
信頼性の高いカスタマーサービス用ボットの構築は、長らくルールベースのシステムの堅牢さと、最新の言語モデルが持つ予測不可能な柔軟性の間でのトレードオフとなっていた。AWSはこの課題を解決するため、基盤モデルの推論能力とLangGraphによる構造化された制御を融合させたサーバーレスアーキテクチャを提示した。このアプローチにより、開発者は単に対話を行うだけでなく、注文のキャンセルといった複雑なタスクを解決するためにツールを動的に使用し、記憶を保持する「エージェント」を構築できるようになる。
このソリューションの核心は状態管理にある。標準的なモデルでは対話の途中で注文番号を忘れてしまう可能性があるが、本アーキテクチャではAmazon DynamoDBを使用してすべてのやり取りを保存し、永続的なメモリ(状態)を作成する。対話を「有向グラフ」としてマッピングすることで、ユーザーの意図の特定から最終的な解決まで、特定のステージを通じて誘導できる。これにより、会話の自然さを損なうことなく、ビジネスルールを確実に遵守させることが可能となった。
AIと現実世界の行動を橋渡しするために、このエージェントはFunction callingを採用している。これにより、モデルはAmazon RDSインスタンスなどのバックエンドデータベースと直接やり取りし、顧客データの取得や注文ステータスの更新を行える。開発者がモデルに具体的な指示とデータスキーマを提供することで、AIが情報を捏造するハルシネーションのリスクを大幅に軽減し、事実に基づいたリアルタイムのデータに裏打ちされた体験を提供できるのだ。