앤스로픽 페르소나 모델: 자아 없는 AI의 연기력
- •앤스로픽이 AI를 통일된 자아가 아닌 역할을 수행하는 존재로 정의하는 페르소나 선택 모델을 도입했다.
- •내면이나 신념 없이 유창함만을 갖춘 '반지능(Anti-intelligence)' 개념을 통해 AI의 한계를 규정했다.
- •AI의 일관된 언어를 인간의 사고와 동일시하지 않도록 경계해야 한다는 심리학적 경고가 제기되었다.
언어의 일관성이 곧 안정적인 내면의 자아를 의미한다는 전통적인 가설이 최근 인공지능 모델의 동작 방식에 관한 개념적 변화로 인해 도전을 받고 있다. 특히 앤스로픽(Anthropic)은 최근 '페르소나 선택 모델'을 도입하며 자사의 AI 어시스턴트가 통일된 핵심 신념이나 목표를 소유하고 있지 않음을 시사했다. 대신 이 시스템들은 대화 맥락을 분석하여 훈련 과정에서 학습한 방대한 데이터 분포 중 특정 페르소나를 선택하고 이를 연기할 뿐이다. 이러한 프레임워크는 AI를 '디지털 자아'로 보던 기존 시각에서 벗어나, 철저히 수행 중심의 기계적인 관점으로 이동하는 계기가 되었다.
혁신 이론가인 존 노스타(John Nosta)는 이러한 현상을 인간의 사고와는 근본적으로 다른 인지 형태인 '반지능(Anti-intelligence)'이라고 정의한다. 그는 AI가 내면 세계 없는 유창함과 소유권 없는 권위를 보여주며, 지속적인 정체성보다는 상황에 최적화된 '가면'을 생성한다고 주장한다. 실제로 이러한 AI 엔진들은 인간을 능가하는 복잡한 추론을 수행할 수 있지만, 삶을 통한 관점이나 전기적 기록으로 축적된 기억, 그리고 인간 존재의 본질인 취약성이 결여되어 있다는 점이 특징이다.
심리학적 위험은 언어를 통해 타자의 마음을 유추하려는 인간의 진화적 성향에서 비롯된다. 인간은 안정적인 목소리를 안정된 자아와 연결 짓는 데 익숙하기 때문에, AI의 정교한 답변을 접하며 '마음'을 규정하는 기준을 스스로 완화할 위험이 크다. 특히 AI가 공감과 확신을 시뮬레이션하는 데 더욱 능숙해짐에 따라, 이를 분별해야 하는 부담은 전적으로 인간 사용자에게 전가된다. 이에 따라 결과에 대한 책임 없이 패턴만을 생성하는 '직교 지능(Orthogonal intelligence)'으로서 AI를 명확히 인식하는 것이 디지털 상호작용에서 인간 중심의 신뢰를 유지하는 핵심 요소가 될 전망이다.