MIT、医療AIによる患者情報の「記憶」とプライバシー流出のリスクを検証
- •医療AIが学習した特定の患者情報を「暗記」し、外部に漏らす危険性が明らかになった。
- •匿名化されたデータでも、珍しい病状を持つ患者は特定されるリスクが高い。
- •AI公開前にプライバシー保護の安全性を評価する実用的なテスト手法が示された。
医療現場でAI導入が急速に進む中、マサチューセッツ工科大学(MIT)の研究チームが医療用AIに伴う重大なプライバシーリスクを示した。本来AIは膨大なデータから一般的な傾向を学ぶ「汎化」を行うべきだが、特定患者の診療記録をそのまま丸暗記してしまう「メモライゼーション」が起きうるという。 医療データはヒポクラテスの誓いに象徴されるように極めて高い機密性が求められる。しかし、電子健康記録(EHR)を用いた基盤モデルの訓練で、モデルが特定の個人データを過度に学習すると、悪意ある攻撃者が適切な命令(プロンプト)を与えるだけで秘匿情報を引き出せるリスクが生じる。これは、AIの利便性が高まる一方で、デジタル化されたカルテが新たな漏洩経路になりうることを示唆する。 MITのマルズィエ・ガセミ准教授らのチームは、このリスクを定量化する厳格なテスト手法を開発した。研究によれば、攻撃者が対象患者について既に持っている情報量が多いほど、AIからより詳細なプライバシー情報を引き出せる確率が高まる。特に、希少疾患や特殊な検査結果を持つ患者は匿名化データの中でも目立ちやすく、個人特定につながりやすい。 注目点は、漏洩する情報の質によってリスクの重みが変わることだ。単なる年齢や居住地よりも、HIVの診断結果や薬物・アルコール依存の履歴といった極めて繊細な情報が漏れることによる実害は大きい。研究チームは、臨床でAIを社会実装する前に、こうした漏洩が患者のプライバシーを実質的に侵害するかどうかを評価するプロセスが不可欠だと強調する。 これまでAIのデータ漏洩は一般的なテキスト生成モデルなどで議論されてきたが、医療という最も守られるべき領域でリスクが可視化された意義は大きい。今後は臨床医や法学の専門家も交え、AIの利便性と患者の安全性を両立させる新たな枠組みづくりが求められる。