AIの自殺リスク検知を標準化する「VERA-MH」が登場
2026年2月18日 (水)
- •Spring Healthが、AIによる自殺リスク検知の安全性を評価する標準ツール「VERA-MH」を公開。
- •商用AIモデルの調査により、危機検知能力や臨床的境界の維持において大きな性能差があることが判明。
- •業界共通のインフラとしてオープンソース化し、責任あるメンタルヘルスAIの普及を目指す。
AIチャットボットが、深刻な悩みを抱える人々のデジタルな相談相手として普及する一方で、標準化された安全プロトコルの欠如が公衆衛生上の大きな課題となっている。実際に、チャットボットが自殺の兆候を見逃したり、不適切な回答で有害な思考を助長したりするケースも報告されており、現在のAI運用における安全性の欠如が浮き彫りになってきた。
これに対し、グローバルなメンタルヘルスプラットフォームを展開するSpring Healthは、完全自動化されたオープンソースの評価フレームワーク「VERA-MH」を開発した。これはAIとの対話をシミュレーションし、自殺リスクをどの程度正確に特定できるか、また臨床的な一線を守りつつ専門家によるケアへと適切に誘導できるかを測定するものである。
実際にVERA-MHを用いて主要な商用AIモデルをテストしたところ、その性能には大きな隔たりがあることが判明した。共感的な対話には優れていても、具体的なリスク検知や適切な境界設定に課題を残すモデルも少なくない。Spring Healthは本ツールのオープンソース化を通じ、企業間の垣根を越えた業界共通の「安全基準」を確立し、脆弱なユーザーを保護したい考えだ。
このプロジェクトは今後、自殺リスク以外にもメンタルヘルスの幅広い領域をカバーする予定である。医療現場でのAI活用が急速に進む中、VERA-MHは技術革新と人命救助を両立させるための、極めて重要な社会インフラとなるだろう。