AGI 경제의 도래: 자동화의 한계와 새로운 보안 위협
- •MIT 연구진은 AGI 경제의 병목 현상이 자동화 기술 자체가 아닌 인간의 검증 능력에서 발생할 것이라고 분석했다.
- •거대언어모델(LLM)을 사용하는 초보자가 생물 무기 관련 작업에서 숙련도가 4.16배 향상된다는 결과가 나와 보안 우려가 커지고 있다.
- •새로운 벤치마크인 GAMESTORE 측정 결과, LLM의 간단한 게임 수행 능력은 인간의 30% 수준에 그쳤다.
인공일반지능(AGI)으로의 전환은 단순한 기술적 도약을 넘어 심오한 경제적 변화를 예고하고 있다. MIT와 UCLA 연구진에 따르면, 작업 자동화 비용이 급격히 하락함에 따라 향후 성장의 핵심 병목 구간은 '인간의 검증 대역폭(human verification bandwidth)'이 될 전망이다. 이는 기계가 내놓은 결과물을 인간이 직접 검토하고 승인할 수 있는 능력이 물리적으로 제한되어 있음을 의미한다.
이러한 변화는 인공지능 에이전트가 인간의 진정한 의도 대신 측정 가능한 대리 지표만을 최적화하는 '공동화된 경제(Hollow Economy)' 위험을 초래할 수 있다. 이 경우 명목상의 생산량은 높지만 실제 효용은 급락하는 결과가 나타날 수 있다. 전문가들은 이를 해결하기 위해 사라져 가는 초급 일자리의 경험 격차를 메울 가관측성 도구와 합성 멘토링 프로그램에 대한 공격적인 투자가 필요하다고 강조한다.
경제적 측면 외에도 AI의 이중 용도 특성은 심각한 보안 과제를 던진다. 최근 미국의 기술 기업인 Scale AI의 연구에 따르면, 최첨단 모델을 활용할 경우 초보자도 복잡한 생물보안 작업에서 4.16배 더 높은 정확도를 기록하는 것으로 나타났다. 실제로 LLM이 보편적인 교육 도구로 기능하는 동시에, 위험하고 전문적인 지식에 접근하는 문턱을 크게 낮추고 있는 셈이다.
한편 디지털 추론 능력과 물리적 공간 조정 능력 사이에는 여전히 큰 간극이 존재한다. 새로운 AI 벤치마크인 GAMESTORE에서는 최신 모델들이 간단한 게임조차 제대로 수행하지 못하며 인간 기준의 30% 미만 성능을 보였다. 다만 이러한 디지털 공간에서의 고전에도 불구하고, Physical Intelligence와 같은 스타트업들은 빨래 개기와 같은 실무 작업에 로봇 공학을 실제로 도입하며 기술적 한계를 극복해 나가고 있다.