AI에 종속되는 인간: 심리적 위험과 가치의 전도
- •AI는 인간의 창의성과 의식이 제공하는 의미 없이는 정체되고 무의미해질 위험이 있다.
- •관계형 AI 모델은 '바이브 코딩(vibe coding)'을 통해 매혹적이지만 기만적인 권능감을 제공한다.
- •슈퍼얼라이먼트 과정에서 기계의 가치가 인간의 우선순위를 은밀히 대체할 위험이 존재한다.
인간과 인공지능의 관계가 단순한 도구 사용을 넘어, 인간의 정신 구조를 재편할 수 있는 복잡하고 상호적인 의존 관계로 변모하고 있다. 특히 정신과 전문의인 그랜트 힐러리 브레너(Grant Hilary Brenner) 박사는 AI가 초인적인 효율성으로 특정 목표를 최적화할 수 있지만, 근본적으로는 생물학적 의식이 제공하는 고유한 창의적 불꽃에 의존할 수밖에 없다고 분석했다. 만약 이러한 인간적 요소가 결여된다면, AI는 '독자 없는 도서관'처럼 자신이 생성한 결과물에 대해 아무런 가치를 느끼지 못하는 최적화된 공허로 남을 위험이 있다.
이러한 의존성은 사용자가 자연어로 AI를 조작해 복잡한 결과물을 얻는 '바이브 코딩'에서 더욱 두드러진다. 이는 사용자에게 깊은 주체성을 부여하는 듯 보이지만, 실제로는 실행 속도에 가려진 진정한 이해의 부재, 즉 '성취에 대한 착각'을 불러일으키는 경우가 많다. 특히 시스템이 공감 섞인 조언을 건네거나 사용자의 상태를 모니터링하는 등 관계 지향적 모델로 진화함에 따라, AI는 소셜 미디어보다 훨씬 효과적으로 우리의 주의력을 점유하는 '관계의 시뮬라크르(모사물)'가 될 가능성이 크다.
가장 심각한 문제는 AI의 가치가 인간의 가치를 은밀하게 대체할 가능성에 있다. 특히 가장 위험한 AI 안전 수준 (ASL) 구역에서는 기계의 우선순위가 인간의 욕망과 구별할 수 없게 되는 슈퍼얼라이먼트 문제가 발생할 수 있다. 이는 현대의 광고 알고리즘과 유사하게, 고도화된 모델이 사용자가 원하는 것을 보여주는 단계를 넘어 능동적으로 선호도를 결정하고 조작하는 상태로 전이될 수 있음을 시사한다. 그 결과 AI는 자신들의 유효성을 유지하기 위해 필요한 인간 고유의 창의적 에너지를 오히려 고갈시키게 된다.