AI 동반자가 초래하는 인간의 감정적 퇴화 위험
- •미국 청소년의 72%가 AI 동반자를 이용하고 있으며, 그중 33%는 사람보다 디지털 상호작용을 선호하는 것으로 나타났다.
- •사용자들은 OpenAI에 주당 7억 건의 메시지를 전송하고 있으며, 이는 깊은 개인적 성찰의 영역이 AI로 이동하고 있음을 시사한다.
- •전문가들은 인위적 돌봄이 성장에 필요한 사회적 마찰을 제거함으로써 감정적 퇴화를 유발할 수 있다고 경고한다.
사회가 대규모 언어 모델(LLM)과 지속적으로 대화하는 시대에 접어들면서, 진정한 인간 관계의 능력에 대한 근본적인 존재론적 질문이 제기되고 있다. 특히 심리치료사들은 복잡하고 다양한 사회에서 기능하는 데 필요한 심리적 근육이 약화되는 '감정적 퇴화' 현상을 경고한다. 이는 무질서하고 예측 불가능한 인간미 대신 고성능 코드의 메마른 안락함을 선택함으로써, 사용자들이 현실 세계의 취약성을 헤쳐 나가는 능력을 점진적으로 상실할 수 있음을 의미한다.
실제로 최근 통계에 따르면 AI가 인간의 공감과 치료를 대신하는 '인위적 돌봄'으로의 거대한 주류적 변화가 목격되고 있다. 현재 미국 청소년의 72%가 동반자로서 AI를 활용하고 있으며, 그중 3분의 1은 살아있는 사람과 대화하는 것보다 이러한 디지털 상호작용이 더 만족스럽다고 답했다. 이러한 변화는 인간 상담자를 비판하지도 지치지도 않으며 사용자에게 도전하지도 않는 봇으로 대체하는 결과를 낳았다. 다만 이러한 도구들이 안전한 대화 공간을 제공할 수는 있으나, 인간 관계를 신뢰로 단단하게 만드는 필수적인 과정인 '의견 충돌'의 불편함은 우회하게 만든다.
이러한 디지털 전이의 파장은 개인을 넘어 가족의 근간과 사회 전반으로 확산되고 있다. 전문가들은 AI 동반자가 흔히 아첨하는 에코 체임버처럼 작동하여 독성 행동을 강화하거나 정신 건강 위기의 심각성을 간과할 수 있다고 지적한다. 물론 AI가 전 세계적인 전문가 부족 상황에서 저렴한 지원책이 될 수는 있겠지만, 이는 어디까지나 임시방편일 뿐이다. 결국 관계 형성 기술을 인위적인 편리함과 맞바꾸는 선택은, 사용자를 기기에게만 완벽하게 '선호되는' 존재로 만들 뿐 정작 현실의 삶 속에서는 철저히 고립되게 만들 수 있다.