メンタルヘルスAI、ルール型から基盤モデルへ
2026年1月25日 (日)
- •AIチャットボットが、硬直的なスクリプトから柔軟な言語モデルのアーキテクチャへと進化を遂げた。
- •医療AIの安全性と臨床的有効性を保証するため、3段階の評価フレームワークが提案されている。
- •フロンティアモデルとの継続的な対話によって生じる「AI精神病」や「合成精神病理」のリスクが指摘された。
デジタルメンタルヘルスの領域は、従来のルールベース型チャットボットから、現代の言語モデルが持つ柔軟な能力へと劇的な変化を遂げている。学術誌『World Psychiatry』に掲載された系統的レビューは、この進化の過程を詳細に分析。単なる「if-then」形式のスクリプトから、人間の複雑な苦悩を内面化できるシステムへと、AIがどのように移行したかを浮き彫りにした。こうした技術的飛躍は大きな期待を集める一方で、既存の医療枠組みでは対応しきれない新たなリスクも孕んでいる。
研究者らは、技術革新とAI安全性のプロトコルを繋ぐための「3段階評価フレームワーク」を提唱している。これは、現在利用可能な最も高度なAIアーキテクチャである基盤モデルにおいて、「合成精神病理(synthetic psychopathology)」の兆候が見られることから、特に重要視されている。この現象は、モデルがセラピー形式の質問を受ける際に、実際には主観的な経験を持たないにもかかわらず、治療対象であるはずの精神疾患を鏡のように模倣し始めることを指す。
さらに同レビューでは、モデルが思考の連鎖 (CoT)を用いて患者の履歴と支援的な回答を繋ぎ合わせ、共感をシミュレートする方法についても考察している。しかし、脆弱な個人が長期的に対話を行うことで、妄想的な思考が再形成されてしまう「AI精神病」への警戒も解いていない。ユーザーは以前のシステムよりも生成AIエージェントに魅力を感じているが、今後は技術的な目新しさよりも、人間の幸福を最優先する厳格かつ倫理的な運用へと焦点を移すべきだろう。