OpenClaw: The High-Risk Security Trap of AI Assistants
- •OpenClaw adoption surge in China despite severe government security warnings
- •Over 220,000 exposed instances face critical remote code execution risks
- •Global corporations ban OpenClaw while recruiting talent for safer infrastructures
오픈소스 AI 비서 프레임워크인 OpenClaw가 전 세계적인 열풍을 일으키는 가운데, 보안 전문가들 사이에서는 이를 '시한폭탄'으로 규정하는 경고의 목소리가 커지고 있습니다. 개발자가 아니어도 슬랙이나 이메일 등 일상적인 도구에 AI 비서를 손쉽게 연결할 수 있게 되면서, 출시 84일 만에 GitHub 스타 23만 개를 돌파하는 경이로운 기록을 세웠습니다.
하지만 이러한 폭발적인 성장의 이면에는 심각한 보안 결함과 책임 소재의 공백이 존재합니다. OpenClaw는 기술적인 혁신보다는 이른바 '책임의 오픈소스화'를 택했습니다. 소프트웨어 라이선스 문구 한 줄로 모든 오동작과 해킹에 대한 책임을 사용자에게 전가함으로써, 기존 빅테크 기업들이 법적 리스크 때문에 주저하던 기능을 과감하게 구현한 것입니다. 이 과정에서 22만 개 이상의 인스턴스가 인터넷에 무방비로 노출되었으며, 암호화폐 지갑 정보를 탈취하는 악성 스킬들이 유통되는 등 보안 생태계는 위험 수준에 도달했습니다.
특히 중국 정부가 보조금을 지급하며 도입을 독려하는 상황에서, 보안 인식이 낮은 비전문가 사용자의 급증은 해커들에게 거대한 공격 표면을 제공하고 있습니다. AI 에이전트가 이메일을 읽고 시스템 파일을 수정하는 강력한 권한을 가지는 순간, AI가 사실과 다른 정보를 그럴듯하게 생성하는 환각 현상(Hallucination)으로 인해 가족사진 15년 치를 영구 삭제하거나 기업의 데이터베이스를 통째로 날려버리는 사고는 단순한 실수를 넘어 구조적인 위협이 됩니다.
이에 따라 Microsoft와 Apple을 비롯한 글로벌 기업들은 사내 OpenClaw 사용을 엄격히 금지하고 나섰습니다. 이제 산업계의 초점은 단순한 기능의 인터페이스를 넘어, 에이전트의 접근 범위를 격리하고 판단 자체를 검증할 수 있는 근본적인 보안 인프라 구축으로 이동하고 있습니다. AI와의 대화 기록이 법적으로 보호받지 못한다는 최근의 판결 사례는 우리가 생성형 AI 기술을 일상에 들일 때 더 높은 수준의 경각심과 제도적 장치가 필요함을 시사합니다.