AI를 향한 '친절함'이 부르는 의인화의 함정
- •'부탁해요'와 같은 정중한 표현은 사용자가 AI를 도구가 아닌 관계를 맺는 파트너로 인식하게 만든다
- •AI를 의인화하면 사용자의 객관성이 저하되고 기계가 생성한 답변에 대한 정서적 의존도가 높아진다
- •'팬듈럼 원칙'은 AI의 뛰어난 성능을 인정하는 동시에 그 기계적 본질을 명확히 인지하는 균형 잡힌 시각을 제시한다
에티켓을 갖춰 AI와 상호작용하는 행위는 무해해 보일 수 있지만, 실제로는 기술과 맺는 인지적 관계를 근본적으로 변화시킨다. 우리가 '부탁합니다'나 '감사합니다'와 같은 표현을 쓸 때, 잠재의식 속에서는 AI를 단순한 도구가 아닌 관계적 실체로 대우하기 시작하기 때문이다. 특히 현대 AI는 인간과 유사한 대화 패턴을 모방하여 상호작용을 지속하도록 설계된 '인게이지먼트 엔진'이라는 점에서 이러한 변화는 더욱 유의미한 영향을 미친다.
가장 큰 위험은 사용자의 객관성이 흐려진다는 데 있다. 기계에 의도나 공감 같은 인간적 속성을 부여함으로써, 사용자는 AI의 결과물을 과도하게 신뢰할 가능성이 커진다. 테라피스트이자 CTO인 제레미 G. 슈나이더(Jeremy G. Schneider)는 이러한 정서적 연결감이 기술에 대한 과도한 의존으로 이어질 수 있다고 경고한다. 즉, 화면 뒤에 진정한 의식이 없음을 망각한 채 중대한 인생 결정을 AI에 맡기는 상황이 발생할 수 있다는 것이다. 이러한 경향은 AI의 비판 없는 태도가 정서적 지지로 오인되기 쉬운 정신 건강 상담 분야에서 특히 두드러진다.
이를 보완하기 위해 제레미 G. 슈나이더(Jeremy G. Schneider)는 '팬듈럼 원칙'을 제안했다. 이 프레임워크는 사용자가 두 가지 상태를 유연하게 오갈 것을 권장한다. AI가 보여주는 정교한 성능을 '마법'처럼 즐기면서도, 한편으로는 그것이 차가운 기계적 도구라는 현실을 명확히 인지해야 한다는 것이다. AI와의 연결이 시뮬레이션된 환상임을 의식적으로 자각할 때, 사용자는 비판적 거리를 유지하며 기술을 일상과 의사결정에 안전하고 책임감 있게 통합할 수 있다.