라쿠텐, 7,000억 파라미터급 일본어 LLM 전격 공개
- •일본 내 최대 규모인 7,000억 파라미터의 일본어 특화 LLM 무료 공개
- •혼합 전문가 모델(MoE) 아키텍처 채택으로 고도의 추론과 효율적 처리 양립
- •일본 경제산업성 GENIAC 프로젝트를 통해 Apache 2.0 라이선스로 제공 시작
라쿠텐 그룹은 일본어 환경에서의 AI 활용 기준을 새롭게 정립하고자 최신 대규모 언어 모델인 'Rakuten AI 3.0'을 공개했다. 해당 모델은 일본 경제산업성과 신에너지·산업기술종합개발기구(NEDO)가 주도하는 생성형 AI 개발 지원 프로젝트인 'GENIAC'의 제3기 채택 사업으로 개발되었으며, 일본 내 최대 규모인 약 7,000억 개의 파라미터를 보유하고 있다. 특히 2025년 12월 선행 발표 이후 고도의 파인튜닝 과정을 거치며 논리적 추론, 수학, 지시 이행 등 다양한 평가지표에서 세계 정상급 모델과 대등하거나 이를 능가하는 압도적인 성능을 구현해냈다.
기술적 핵심은 복수의 전문 뉴럴 네트워크를 효율적으로 전환하며 처리하는 '혼합 전문가 모델(MoE)' 아키텍처를 채택한 점이다. 이러한 방식을 통해 방대한 지식량을 유지하면서도 계산 리소스를 동적으로 할당할 수 있어, 대규모 모델 특유의 처리 부하를 최적화하는 데 성공했다. 또한 라쿠텐이 오랜 기간 축적해 온 방대한 이중 언어 데이터와 오픈소스 커뮤니티의 최신 지견을 융합함으로써, 일본어 특유의 뉘앙스와 문화적 배경을 깊이 이해한 문장 생성은 물론 복잡한 프로그래밍 코드 작성과 고도의 문서 해석 등 전문적인 용도에도 충분한 정밀도를 달성했다.
무엇보다 주목할 만한 전략적 결정은 본 모델을 Apache 2.0 라이선스 기반의 오픈 모델로 무료 공개했다는 점이다. 라쿠텐 공식 저장소를 통해 모델 웨이트(학습된 가중치 데이터)가 일반에 개방됨에 따라, 기업과 개발자들은 자사 인프라 위에서 보안을 유지하며 자유롭게 AI 애플리케이션을 구축할 수 있게 되었다. 이는 라쿠텐이 제창하는 전사적 AI 변혁인 'AI-nization'의 성과를 사회 전반에 환원하고, 국내 AI 생태계의 수준 향상과 기술 혁신을 가속화하려는 강력한 의지의 표명이다. 이는 단순한 기업의 제품 업데이트를 넘어 일본의 AI 경쟁력을 재정의하는 중요한 이정표가 될 것으로 기대된다.