추론 모델, LLM의 사실 기억 능력 높인다
2026년 3월 11일 (수)
- •추론 과정은 모델이 간단한 질문에서도 내부 지식을 더 효과적으로 인출하도록 돕는다.
- •계산 버퍼를 통한 잠재 처리와 사실 프라이밍을 통한 의미론적 인출 메커니즘이 확인되었다.
- •추론 단계에서의 오류는 최종 출력물의 할루시네이션 발생 위험을 직접적으로 높인다.
거대언어모델(LLM)은 복잡한 수학 문제를 해결하는 능력이 뛰어나다고 평가받지만, 새로운 연구는 추론이 단순한 사실 기억에 어떻게 기여하는지에 주목했다. 질문에 논리적 단계가 필요하지 않은 경우에도 모델이 추론 경로를 생성하도록 유도하면, 파라미터 내부에 저장된 정보를 기억해 내는 능력이 크게 향상되는 것으로 나타났다.
연구진은 이러한 성능 향상의 핵심 원인으로 두 가지 요인을 꼽았다. 먼저 '계산 버퍼(computational buffer)' 효과는 모델이 추론 토큰을 활용해 배경 계산을 수행할 수 있게 한다. 실제로 중간 과정의 단어들이 의미적으로 직접 관련이 없더라도, 더 많은 텍스트를 작성하는 행위 자체가 모델에게 정답을 찾기 위한 일종의 '생각할 시간'을 제공하기 때문이다.
또한 '사실 프라이밍(factual priming)'이 징검다리 역할을 수행한다. 모델이 추론 과정에서 정답과 관련된 주제를 언급하면 의미론적 경로가 형성되어 목표 정보를 더 쉽게 인출할 수 있게 된다. 다만 추론 과정에서 모델이 잘못된 정보를 떠올릴 경우, 최종 답변에서 할루시네이션을 일으킬 확률이 급격히 높아진다는 부작용도 확인되었다.
이에 따라 연구팀은 전 과정에서 사실적 정확성을 유지하는 추론 경로를 우선시할 것을 제안했다. 이러한 결과는 향후 AI 시스템이 학습 데이터에서 가장 정확한 정보를 끌어내기 위해 내부적인 '스크래치패드(scratchpad)'를 도입할 가능성을 시사한다.