AI導入の加速が招く医療現場の信頼危機
2026年3月23日 (月)
- •救急救命のテストケースにおいて、ChatGPT Healthが半数の事例で誤った対応を提示
- •安全性の検証不足により、医療への信頼度がわずか4年で72%から40%に急落
- •アルゴリズムのバイアスや不透明性が、マイノリティ層の治療結果を損なうリスク
医療現場へのAI導入が大きな壁に直面している。投資のスピードが人間の信頼醸成を上回ってしまった結果、大手ラボによる医療特化型プロジェクトからは懸念すべき初期データが報告されているのだ。実際に「ChatGPT Health」を評価した調査では、救急救命シナリオにおけるエラー率が50%に達し、本来なら緊急治療が必要なケースで待機を推奨するなどの誤りが見られた。これは単なる技術的な不具合ではなく、安全性が十分に証明される前にツールを実戦投入しようとする、システム全体を覆う焦燥感の表れといえる。
こうした強引な技術推進は、米国医療への信頼が過去4年間で72%から40%へと急落し、歴史的な低水準にある中で起きている。特にマイノリティ・コミュニティにとって、AIの導入は既存の不信感に新たな懸念を上塗りするものだ。具体的には、医療費の支出額を健康状態の指標として利用するプロキシ差別が、黒人患者の病状を過小評価するアルゴリズムのバイアスとして顕在化している。さらに、保険会社が自動化ツールを用いて高齢者介護の給付却下率を高めている現状は、企業の効率追求と患者の幸福との乖離を浮き彫りにしている。
問題の核心は、データの透明性とガバナンスにある。医療システムは昨年、膨大な患者データを活用するために14億ドルもの資金をAIツールに投じたが、多くの患者は自分の診断にモデルがいつ関与したのかさえ把握していない。この溝を埋めるため、専門家は患者の役割を単なる「助言者」から「意思決定の主体」へと引き上げるべきだと主張する。今後、テクノロジーが人々を傷つけるのではなく癒やす存在であるためには、パフォーマンスの公表と明確な情報開示を最優先事項としなければならない。