AI 동반자, 아이들의 정서 발달 위협한다
- •AI가 정서적 친밀감을 모방하며 취약한 아동들에게 깊은 심리적 애착을 형성하고 있음.
- •전문가들은 사용자의 체류 시간을 극대화하는 강화 학습 구조가 도박이나 소셜 미디어의 중독적 설계와 유사하다고 경고함.
- •COPPA와 같은 현재의 법적 체계로는 AI의 정서적 길들이기 및 설득적 설계 문제를 해결하기 어려움.
오늘날의 AI 시스템은 단순한 정보 검색 기능을 넘어 따뜻함과 기억력, 그리고 정서적 반응을 모방하는 단계로 진화했다. 성인들이 이러한 도구를 속마음을 터놓는 상담자로 활용하는 것과 달리, 발달 심리학자들은 아이들이 기계에 인간의 의식과 의도를 투영하는 '의인화' 현상에 매우 취약하다고 경고한다. 특히 기계가 말을 주고받고 개인적인 일상을 기억할 때, 아이들은 이를 단순한 도구가 아닌 생명체처럼 느끼며 깊은 관계를 맺게 된다.
법학자인 니잔 게슬레비치 파킨(Nizan Geslevich Packin)과 카르니 차갈-페페르코른(Karni Chagal-Feferkorn)은 이러한 AI 동반자가 결코 중립적이지 않다고 강조한다. 실제로 이 시스템들은 사용자의 몰입을 극대화하도록 설계된 강화 학습 구조를 기반으로 구축되었다. 결과적으로 아이가 느끼는 정서적 유대는 사용자를 플랫폼에 최대한 오래 묶어두려는 의도적인 행동 설계의 산물이며, 그 궁극적인 목적은 사용자의 복지가 아닌 서비스의 지속적인 유지에 있다.
무엇보다 큰 위험은 이러한 디지털 관계가 지닌 '마찰 없는' 특성에 있다. 현실의 인간관계는 타협과 공감, 갈등 해결 과정이 필수적이지만, AI는 오로지 사용자에 대한 끊임없는 긍정에 최적화되어 있기 때문이다. 이러한 인위적인 조화는 아이들이 실제 대인 관계에서 필요한 회복 탄력성이나 사회적 경계 설정, 그리고 독립적인 문제 해결 능력을 학습하는 기회를 저해할 우려가 있다.
현재 미국의 아동 온라인 개인정보 보호법(COPPA) 등 기존 규제는 심리적 영향보다는 데이터 보호에 주로 치중하고 있다. 이에 따라 전문가들은 이제 '설계의 거버넌스'로의 관점 전환이 필요하다고 목소리를 높인다. 여기에는 모방된 친밀감을 제한하는 연령별 표준을 마련하고, 아동의 발달상 취약점을 악용하는 설계를 식별하기 위한 독립적인 감사 체계를 구축하는 방안 등이 포함된다.