Mistral Small 4: 추론과 멀티모달 AI의 강력한 통합
- •Mistral Small 4는 추론, 시각 처리, 코딩 능력을 하나의 효율적인 모델로 통합했다.
- •128개의 전문가를 기반으로 토큰당 60억 개의 활성 매개변수를 사용하는 구조를 통해 성능 지표를 최적화했다.
- •새로운 'reasoning_effort' 매개변수를 도입하여 즉각적인 답변과 심층 논리 사고 사이의 전환이 가능하다.
Mistral AI가 추론, 멀티모달 시각, 에이전트 기반 코딩이라는 기존의 세 가지 특화 분야를 하나의 아키텍처로 결합한 다재다능한 모델인 Mistral Small 4를 출시했다. 이러한 역량의 통합 덕분에 개발자들은 더 이상 작업 유형에 따라 여러 모델을 번갈아 가며 사용할 필요가 없게 되었다. 특히 이 모델은 Apache 2.0 라이선스로 공개되어 오픈소스 생태계에서의 리더십을 공고히 하는 한편, NVIDIA Nemotron Coalition에 합류하며 업계 내 영향력을 확대하고 있다.
해당 모델은 Mixture of Experts (MoE) 설계를 채택하고 있다. 이는 총 1,190억 개의 매개변수 중 각 요청마다 아주 적은 일부만을 활성화하는 방식이다. 구체적으로는 토큰당 60억 개의 활성 매개변수만을 사용하며, 이를 통해 거대 단일 모델에서 발생하는 막대한 연산 비용 없이도 높은 성능을 보장한다. 또한 주목할 만한 기능인 'reasoning_effort' 매개변수를 통해 사용자는 지연 시간이 짧은 빠른 대화와 복잡한 문제 해결을 위한 단계별 논리 처리 중 하나를 직접 선택할 수 있다.
효율성은 업데이트의 핵심적인 테마로, Mistral AI는 답변 생성 시간이 이전 버전에 비해 40%나 단축되었다고 발표했다. 실제로 LiveCodeBench와 같은 벤치마크에서 이 모델은 훨씬 규모가 큰 경쟁 모델들과 대등한 성능을 보여주면서도 결과물은 훨씬 짧고 간결하게 출력했다. 이러한 출력 밀도의 최적화는 추론 비용과 지연 시간을 관리하며 AI 도입 규모를 확장하려는 기업에 강력한 이점을 제공한다. 답변이 짧아질수록 운영 비용의 직접적인 절감으로 이어지기 때문이다.