Mistral AI, 통합 모델 'Mistral Small 4' 전격 출시
- •Mistral Small 4는 추론, 멀티모달, 코딩 능력을 1,190억 개의 파라미터 모델로 통합했다.
- •Mixture-of-Experts (MoE) 구조를 통해 추론 시 60억 개의 파라미터만 활성화하며 Apache 2.0 라이선스로 배포된다.
- •Lean 4 형식 검증 언어에 특화된 오픈 웨이트 모델인 Leanstral이 함께 공개되었다.
프랑스의 AI 스타트업 Mistral AI가 Mistral Small 4를 출시하며 오픈 웨이트 모델 라인업을 대폭 확장했다. 'Small'이라는 명칭과 달리 1,190억 개의 파라미터를 보유하고 있으나, Mixture-of-Experts (MoE) 구조를 채택하여 추론 시에는 60억 개의 파라미터만 활성화함으로써 연산 비용을 효율적으로 관리한다. 특히 이번 모델은 논리 중심의 Magistral, 시각 지능의 Pixtral, 프로그래밍의 Devstral 등 기존에 분산되어 있던 전문 모델들의 역량을 하나의 강력한 범용 모델로 결합했다는 점에서 전략적인 변화를 보여준다.
무엇보다 눈에 띄는 기능은 사용자가 추론 강도를 직접 선택할 수 있는 가변적 추론 설정이다. 사용자는 설정을 '없음'에서 '높음'까지 조절하여 모델이 복잡한 문제에 더 많은 인지 자원을 할당하도록 유도할 수 있으며, 이는 최상위급 추론 모델에서 볼 수 있는 '생각하는 시간'과 유사한 메커니즘이다. 해당 모델은 허용 범위가 넓은 Apache 2.0 라이선스 하에 공개되었으며, Hugging Face 기준 약 242GB의 용량을 차지하여 오픈소스 커뮤니티가 직접 호스팅하고 미세 조정하기에 충분한 환경을 제공한다.
또한 Mistral AI는 특정 기술 분야를 겨냥한 Leanstral도 함께 선보였다. 이 모델은 수학적 정리 증명 및 형식 검증에 사용되는 함수형 프로그래밍 언어인 Lean 4에 맞춰 정밀하게 미세 조정되었다. 이처럼 엄격한 논리가 요구되는 도메인을 타겟팅함으로써, Mistral AI는 정확성과 형식 논리가 필수적인 고차원 과학 및 수학 연구 분야에서 특화된 모델이 기여할 수 있는 잠재력을 입증했다.