새로운 하이브리드 기법, LLM 학습 효율 높인다
2026년 4월 6일 (월)
- •새로운 RLSD 기법으로 LLM 학습 안정성 및 수렴 속도 개선
- •하이브리드 접근법을 통해 자기 증류 과정의 정보 누출 문제 해결
- •토큰 단위의 피드백과 검증 가능한 보상을 결합하여 학습 효율 최적화
거대언어모델(LLM)은 일반적으로 더 큰 규모의 '교사' 모델로부터 배우는 증류 방식이나, 정답을 확인할 수 있는 환경에서 피드백을 받는 강화학습(RLVR) 방식을 사용한다. 최근 연구에서는 이 두 방식의 강점을 결합한 '자기 증류를 이용한 강화학습(RLSD)'을 새롭게 제시했다. RLSD는 학습의 수렴 한계를 높이고 전체적인 훈련 과정을 보다 안정적으로 만든다는 점에서 주목받는다.
기존의 자기 증류 방식은 모델이 스스로를 가르치는 과정에서 '정보 누출'이라는 고질적인 문제에 직면하곤 했다. 이는 모델이 학습 도중 참조용 정답과 같은 특권 정보를 사용하여 이른바 '커닝'을 함으로써, 장기적으로 성능이 불안정해지는 현상을 의미한다. 마치 학생이 교과서의 내용을 이해하기보다 뒤쪽의 정답지를 보고 문제를 푸는 것과 같은 상황이다.
연구진은 이를 해결하기 위해 영리한 구조적 개선안을 제시했다. 자기 증류 과정을 모델 파라미터가 얼마나 업데이트되어야 하는지 그 규모를 결정하는 데에만 제한적으로 사용하고, 업데이트의 방향은 검증 가능한 보상을 통해 결정하도록 설계한 것이다. 이러한 결합 방식을 통해 모델은 객관적인 정답 유무를 명확히 확인하면서도 더욱 세밀한 개선을 이어갈 수 있다. 이는 결과 기반 학습의 신뢰성을 유지하면서도 훈련 과정을 더욱 효율적이고 안정적으로 발전시키는 중요한 도약이 될 것으로 보인다.