리눅스 커널 보안팀, AI 생성 노이즈로 몸살
- •리눅스 커널 보안 보고 건수가 주당 2~3건에서 일일 10건 이상으로 급증했다.
- •대다수의 신규 보안 보고가 AI가 생성한 이른바 '슬롭(slop)'으로 확인됐다.
- •자동화 도구 사용으로 인해 동일한 버그 보고가 매일 중복 접수되고 있다.
현대 디지털 인프라의 근간인 오픈소스 프로젝트들이 전례 없는 위기에 직면했다. 이른바 'AI 슬롭(AI slop)'이라 불리는 저품질 AI 생성 데이터가 폭포수처럼 쏟아지고 있기 때문이다. HAProxy 프로젝트의 리드 개발자인 윌리 타레우(Willy Tarreau)는 최근 리눅스 커널 보안 메일링 리스트의 암울한 상황을 공유했다. 관리 가능한 수준이었던 버그 보고 건수가 매일 열 건 가까이 급증했으며, 이 중 대부분은 인간 연구자가 아닌 AI 모델이 작성한 것으로 파악된다.
이 현상은 생성형 AI의 급격한 확산과 유한한 인간 관리자의 수용 능력 사이의 핵심적인 갈등을 보여준다. 과거에는 사람이 직접 코드를 분석하고 결함을 식별한 뒤 체계적인 설명을 작성해야 했다. 하지만 이제 개발자들은 대규모 언어 모델(LLM)을 활용해 코드를 스캔하고 문제를 '찾아내게' 함으로써, 유효한 보고뿐 아니라 중복되거나 무의미한 보고까지 쏟아내고 있다. 이는 단순한 번거로움을 넘어 가장 중요한 소프트웨어 시스템의 안정성을 책임지는 관리자들에게 극심한 업무 부담을 가중하고 있다.
자동화 도구로 발견된 동일한 버그가 여러 사용자로부터 중복 접수되는 것은 자동화된 코드 분석이 효율성의 한계점에 도달했음을 시사한다. AI는 분명 보안 취약점 탐지에 도움을 줄 수 있지만, 인간의 검수 없는 무분별한 제출은 유용한 도구를 기술적 노이즈의 근원으로 전락시킨다. AI 모델이 더욱 대중화됨에 따라, 오픈소스 커뮤니티는 이제 유효한 기여자를 소외시키지 않으면서도 실제 가치가 있는 자동화 도구를 보호하고 노이즈를 필터링할 방법을 모색해야 하는 과제를 안게 되었다.