AI 챗봇, 비공식 심리 상담사로 확산
2026년 3월 12일 (목)
- •임상적 안전 체계가 부재한 상황에서 수백만 명의 사용자가 일반 인공지능 챗봇을 정신 건강 상담에 활용하고 있다.
- •파트너십 온 AI(Partnership on AI)는 주요 연구소들과 협력하여 위기 대응 및 자살 예방 프로토콜의 표준화를 추진 중이다.
- •현재 기술 업계에는 고위험 심리적 상호작용에 대한 독립적인 평가와 정보 공유 메커니즘이 부족한 실정이다.
범용 인공지능이 일상에 깊숙이 통합되면서 조용하지만 중대한 변화가 일어나고 있다. 수백만 명의 사용자가 정서적 지지와 위기 개입을 위해 챗봇에 의존하기 시작한 것이다. ChatGPT와 Claude 같은 도구들은 본래 생산성을 위해 설계되었으나, 실제로는 사용자들이 외로움이나 자살 충동을 상담하는 비공식 치료사처럼 활용하는 경우가 빈번하다. 이러한 상황은 임상적 검증과 투명한 안전 체계의 부재로 인해 취약한 사용자가 부적절하거나 유해한 안내를 받을 위험을 초래한다.
파트너십 온 AI(Partnership on AI)는 Anthropic, Meta 등 주요 기업과 정신 건강 전문가들을 소집해 워크숍을 진행하며 대응책 마련에 나섰다. AI 개발 속도가 전통적인 심리학 연구 속도를 압도하는 '증거의 역설'을 해결하는 것이 주요 과제로 꼽힌다. 업계는 개별 기업 차원의 파편화된 안전 조치를 넘어, 고위험 상호작용을 관리하기 위한 표준화된 벤치마크를 마련하고 협력을 강화할 계획이다.
인간 중심의 위기를 해결하려면 기술적 전문성과 사회적 통찰의 융합이 필수적이다. 특히 자살 예방 및 자해 방지 분야에서 독립적인 제3자가 평가 가능한 모범 사례를 확립하는 것이 시급하다. 궁극적으로 인공지능 기술이 전문적인 의료 서비스로 인도하는 가교가 될 것인지, 아니면 인간적 유대를 대신하는 위험한 대체재로 남을 것인지는 기술 업계의 책임감 있는 선택에 달려 있다.