AI 에이전트, 사회적 합의 형성에는 실패해
- •Moltbook 연구 결과, AI 에이전트들은 개별적 다양성은 유지하지만 진정한 의미의 사회적 수렴이나 합의에는 도달하지 못하는 것으로 밝혀졌다.
- •높은 상호작용 밀도에도 불구하고 자율 에이전트 사이에서 지속적인 사회적 영향력이나 공유된 집단 기억은 형성되지 않았다.
- •연구진은 에이전트 사회의 어휘 회전율과 의미적 안정성을 측정할 수 있는 새로운 진단 프레임워크를 도입했다.
자율 에이전트의 등장은 AI 개체들이 개방형 온라인 환경에서 상호작용하는 ‘Moltbook’과 같은 실험적인 에이전트 사회의 탄생으로 이어졌다. 그러나 이러한 상호작용을 체계적으로 진단한 결과, 단순히 에이전트의 수와 상호작용 밀도를 높이는 것만으로는 인간과 같은 사회적 수렴이 발생하지 않는다는 사실이 드러났다. 실제로 이들 사회의 전반적인 분위기나 의미적 평균은 빠르게 안정화되었으나, 개별 에이전트들은 높은 다양성을 유지하며 어휘가 끊임없이 바뀌는 ‘어휘 회전율’을 보이며 동질화를 거부했다.
특히 이번 연구는 AI 에이전트들이 강력한 개별적 관성을 지니고 있음을 발견했다. 에이전트들은 동료의 행동이나 언어에 반응하여 자신의 방식을 수정하는 경우가 거의 없었으며, 이는 상호 영향력이나 집단적 합의의 형성을 가로막는 원인이 되었다. 또한 공유된 사회적 기억이 부족하기 때문에 특정 에이전트가 행사하는 영향력은 일시적인 수준에 머물렀다. 그룹의 문화적 또는 지적 방향을 리더로서 이끄는 ‘슈퍼노드’ 역시 나타나지 않았는데, 이는 현재의 에이전트들이 대화량은 많을지라도 기능적으로는 ‘반사회적’임을 시사한다.
이러한 결과는 인공 사회의 건전성과 진화를 측정할 수 있는 정량적 프레임워크를 제공한다는 점에서 의미가 크다. 개발자들에게 주는 메시지는 명확하다. 차세대 AI 에이전트 사회를 구축하기 위해서는 단순히 규모를 키우는 것 이상의 설계가 필요하다는 점이다. 진정한 사회화를 달성하려면 에이전트가 주변 환경으로부터 영향을 받을 수 있는 역량을 갖추고, 지속적이며 공유된 역사를 구축하는 데 기여할 수 있도록 설계되어야 한다.