医療AIのサイバーセキュリティ、新たな局面へ
2026年2月18日 (水)
- •Google Cloud幹部が、医療におけるエージェンティックAIへの移行と検知不能なモデル操作のリスクを警告。
- •AIレッドチーミングと暗号化によるプロバナンス追跡が、医療システムの重要セキュリティ分野に浮上。
- •兵器化されたAIに対抗するため、サイバーセキュリティの対応時間を数時間からミリ秒単位に短縮する必要がある。
生成AIが臨床現場のワークフローに導入される中、医療セクターはデジタル防衛における大きなパラダイムシフトに直面している。Google Cloudの経営幹部であるテイラー・レーマン(Taylor Lehmann)氏は、業界が単にAIと対話する段階から、独立してタスクを実行する自律型システム「エージェンティックAI(自律型AI)」を監督する段階へと移行しつつあると指摘した。この移行は重大なリスクを伴う。特に、モデルの自然な誤りであるハルシネーションと、医療結果を改ざんしようとする攻撃者による意図的な操作を区別することが極めて困難になるからだ。
こうした脅威に対抗するため、医療機関は厳格なプロバナンス(出自管理)の実践を導入しなければならない。これには、コードと学習データの双方の起源を検証するための暗号化バイナリ署名が含まれ、モデルの生成から展開に至るまでの全プロセスを記録に残すことが求められる。さらに、「AIレッドチーミング」の重要性も高まっている。専門チームがAIシステムに負荷をかけて有害な動作を誘発させることで、モデルが特定の医療目的に過剰適合していないか、あるいは脆弱性が放置されていないかを事前に評価するのである。
現在、最も大きな懸念は、兵器化されたAIがもたらす攻撃の「速度」だ。自動化されたシステムがわずかミリ秒単位でコードを侵害する現在、数時間単位を要する従来のランサムウェア対応ではもはや十分ではない。レーマン氏は、人間だけでなくAIエージェント自身に対しても、徹底した透明性と強力なアイデンティティ管理(身元確認)を優先すべきだと提唱している。これにより、セキュリティ侵害のほぼ即時の検知と、自動化された修正が可能になるという。