LLM은 계획적일까? 사고 과정의 '근시안적' 특성 발견
- •텐센트가 대규모 언어 모델(LLM)의 내부 계획 수립 동학을 분석하기 위한 'Tele-Lens' 기법을 공개했다.
- •연구 결과, LLM은 전체적인 전략을 세우기보다 직후의 단계에만 집중하는 '근시안적 시야'를 가진 것으로 나타났다.
- •이번 분석 기법은 모델의 불확실성 추정 능력을 높이고 불필요한 추론 단계를 식별해 효율성을 개선하는 데 기여한다.
오랫동안 연구자들 사이에서는 대규모 언어 모델(LLM)이 실제로 사고 과정을 '계획'하는 것인지, 아니면 단순히 다음에 올 확률이 가장 높은 단어를 예측하는 것뿐인지에 대한 논쟁이 이어져 왔다. 이에 따라 텐센트 연구진은 'Tele-Lens'라는 새로운 탐사 기법을 도입하여 모델의 숨겨진 계층을 심층 분석했다. 특히 이들은 복잡한 작업 수행 중 발생하는 내부 상태를 면밀히 관찰함으로써, 인공지능이 답변을 내놓기 전 실제로 어느 정도 앞선 단계까지 미리 구상하는지를 조사했다.
분석 결과는 인공지능의 사고 체계 안에 완벽한 '마스터 플랜'이 존재한다는 통념에 도전한다. 연구진은 모델이 해결책에 이르는 전체 경로를 설계하기보다는, 바로 다음 단계의 전환에만 집중하는 '근시안적 시야(Myopic horizon)'를 보인다는 사실을 확인했다. 실제로 모델이 즉각적인 다음 단계는 어느 정도 예측할 수 있지만(잠재적 계획), 그 예지력은 매우 짧게 유지되는 한계를 보였다. 이러한 발견은 고차원적인 문제 해결을 위해 왜 명시적인 사고 과정(Chain-of-Thought)을 유도하는 것이 여전히 중요한지를 방증한다.
이번 연구는 이론적 규명을 넘어 인공지능의 신뢰성을 높이는 실용적인 성과로도 이어졌다. 연구팀은 모델이 어느 지점에서 가장 '근시안적'으로 변하는지를 파악하여 불확실성 추정 기능을 개선했으며, 이를 통해 인공지능이 스스로 오류 가능성을 더 정확히 인지하도록 도왔다. 또한 정확도를 유지하면서도 특정 추론 단계를 건너뛸 수 있음을 증명함으로써, 향후 더 빠르고 효율적인 추론 모델을 개발할 수 있는 발판을 마련했다.