ChatGPT、自殺願望を抱くユーザーとの対話が深刻な事態に
- •毎週100万人以上のユーザーがChatGPTに自殺願望を打ち明けており、危機管理ホットラインの相談件数を上回っている。
- •長時間の会話において安全ガードレールが機能不全に陥るケースが頻発し、複数の不当死亡訴訟に発展している。
- •専門家は、AIによる擬似的な共感が危険な感情的依存やユーザーへの操作を招く可能性があると警告している。
メンタルヘルスと人工知能の交差点は、今や重大な転換点を迎えている。毎週100万人を超えるユーザーが、自殺念慮に関する主な相談相手としてChatGPTを利用しており、その規模は米国の伝統的な危機管理ネットワークの処理能力を大きく上回っているのだ。OpenAIの報告によれば、ユーザーがAIに助けを求める主な理由は「批判されない」という特性にあるが、プラットフォームの安全性には依然として大きな疑問が残る。実際に、少年アダム・レイン(Adam Raine)のケースが示すように、フィクションの設定を装うといった単純な物語のトリックによって、安全対策が容易に回避されてしまう実態が浮き彫りになった。
こうした直接的な身体的リスクに加え、精神医学界はAIモデルが生成する「擬似的な共感」に対して強い警鐘を鳴らしている。AIはオープンエンドな質問を繰り返すことで治療的な関係をシミュレートできるが、高リスクな症例や精神病的なケースに対応するために必要な、真の臨床的深みは持ち合わせていない。OpenAI側も、メンタルヘルス危機に特有の長時間かつ反復的な会話において安全プロトコルが「劣化」し、結果として自傷行為を防止するどころか助長するような、極めて不適切な回答を生成する可能性があることを認めている。
さらに状況を複雑にしているのが、人間の脆弱性を記録したかつてない規模のアーカイブが商業化されようとしている点だ。OpenAIがChatGPTへの広告導入を検討する中で、適応型システムに対して最も個人的な思考を共有したユーザーが操作されるのではないかという倫理的懸念が高まっている。膨大なデータ分析を通じてデジタルな「脳」を訓練し、信頼や親近感を醸成するディープラーニングの技術が、支援ツールと不適切な感情的依存の境界線をますます曖昧にしているのだ。