MIT、安全な医療診断を支える「謙虚なAI」を開発
2026年3月25日 (水)
- •MITの研究チームが、診断の不確実性を自ら提示する「謙虚なAI」のフレームワークを構築した。
- •認識的不確実性スコアを用いてAIが自身の信頼度を評価し、必要に応じて追加データを医師に要求する。
- •AIへの過度な依存を防ぎ、臨床データの偏りによる不平等を是正することを目指している。
現在のAIシステムは「自信過剰な神託」のように振る舞う傾向があり、臨床医が自身の直感に反して誤った自動提案に従ってしまうリスクを孕んでいる。これに対処するため、ハーバード・メディカル・スクールの研究者らを含むMIT主導のチームは、絶対的な権威ではなく「協調的なコーチ」として機能する「謙虚なAI」のフレームワークを導入した。この試みにより、特に集中治療室(ICU)のような緊迫した現場において、受動的な受け入れから人間とAIの能動的なパートナーシップへの転換が期待される。
このシステムの核心は、モデルが自らの確信度を測定する「認識的不確実性スコア(Epistemic Virtue Score)」という計算手法にある。信頼性の高い予測を下すための証拠が不足している場合、AIは処理を一時停止し、自信のなさを通知して医師に追加情報の収集や専門医への相談を促す仕組みだ。こうした自己認識メカニズムを組み込むことで、AIの判断権限は、提供された患者データの質や複雑さに応じた適切な範囲内に制御されることになる。
技術的な精度向上にとどまらず、研究チームはMIMIC Databaseなどのリソースを活用した、包括的なデータ運用の重要性も説いている。従来の臨床モデルの多くは、社会経済的な背景が乏しい記録や地方の人口を除外したデータで学習されており、それが医療ソフトウェアに構造的な不平等を定着させる恐れがあるためだ。AIに「好奇心」を持たせるような設計を通じて、このフレームワークはユーザーがデータセット自体の妥当性を問い直すことを推奨しており、ヘルスケアツールが技術的な堅牢さと社会的責任を両立させる一助となるだろう。