메이투안, 5,600억 파라미터급 LongCat 모델 공개
2026년 1월 26일 (월)
- •메이투안이 고도화된 추론 기능을 갖춘 5,600억 개의 파라미터 규모 혼합 전문가 모델(MoE)인 LongCat-Flash-Thinking-2601을 발표했다.
- •에이전틱 검색 및 도구 통합 작업 분야의 오픈소스 벤치마크에서 세계 최고 수준(SOTA)의 성능을 달성했다.
- •복잡한 문제 해결 시 추론의 깊이를 더하는 테스트 시간 스케일링 기술인 'Heavy Thinking' 모드를 새롭게 도입했다.
메이투안(Meituan)의 LongCat 팀이 정적인 지식 학습을 넘어 능동적인 문제 해결을 지향하는 5,600억 파라미터 규모의 거대 오픈소스 모델을 선보였다. LongCat-Flash-Thinking-2601로 명명된 이 모델은 혼합 전문가 모델(MoE) 구조를 채택했으며, AI가 스스로 소프트웨어 도구를 활용하고 웹을 검색해 복잡한 요청을 수행하는 에이전틱 AI 작업에서 독보적인 성능을 발휘한다. 이 모델의 가장 큰 특징은 깨진 링크나 모순된 정보 같은 현실 세계의 '노이즈' 데이터에 대한 강력한 복원력을 통해, 기존 AI 시스템이 흔히 오류를 일으키는 상황에서도 안정적으로 작동한다. 이를 위해 연구진은 훈련 과정에 의도적으로 불완전한 데이터를 포함했으며, 모델이 단순히 완벽한 패턴을 암기하는 대신 유연한 복구 전략을 스스로 구축하도록 유도했다. 기술적 핵심은 DORA라고 불리는 비동기 강화 학습 프레임워크에 있다. 이를 통해 모델은 10,000개 이상의 각기 다른 디지털 환경을 오가며 효율적으로 학습할 수 있었다. 또한 'Heavy Thinking'이라는 혁신적인 모드를 통해 응답 생성 단계에서 연산 자원을 집중 투입하는 추론 스케일링을 구현했다. 내부 추론 과정의 깊이와 너비를 확장함으로써 깊은 논리적 선구안과 적응형 계획이 필요한 고난도 다회차 대화까지 능숙하게 처리한다.