Meta, 수천 개 언어 아우르는 통번역 모델 OmniSONAR 공개
- •Meta가 텍스트, 음성, 코드를 수천 개의 언어 변체로 임베딩하는 OmniSONAR를 선보였다.
- •이 모델은 BIBLE 벤치마크에서 1,560개 언어의 번역 오류를 15배나 줄이는 성과를 거뒀다.
- •또한 177개의 구어를 통합하여 고성능 제로샷 음성-텍스트 번역 기능을 구현했다.
Meta AI가 수천 개의 언어와 텍스트, 음성 같은 다양한 모달리티 간의 간극을 메우기 위해 설계된 혁신적인 임베딩 모델 제품군인 OmniSONAR를 발표했다. 수백 개의 언어에 국한되었던 기존 시스템과 달리, OmniSONAR는 1,500개 이상의 언어 변체에 대해 텍스트, 음성, 코드는 물론 수학적 표현까지 아우르는 통합된 의미 공간을 구축한다. 특히 이러한 통합적 접근 방식을 통해 모델은 문장이 쓰였는지, 말해졌는지, 혹은 코드로 작성되었는지에 관계없이 그 본질적인 의미를 정확히 파악할 수 있다.
연구진은 영어와 같은 고자원 언어의 품질을 유지하면서도 이처럼 전례 없는 규모에 도달하기 위해 점진적 학습 전략을 활용했다. 우선 200개 언어를 위한 기초 공간을 구축한 뒤, 특수화된 지식 증류 과정을 통해 수천 개의 언어로 범위를 확장했다. 이 기술은 복잡한 모델의 패턴을 모방하도록 더 작은 모델을 학습시키는 방식으로, 시스템의 효율성을 유지하면서도 언어적 도달 범위를 비약적으로 넓히는 데 핵심적인 역할을 한다.
실제로 이 모델은 표준 벤치마크에서 검색 오류를 절반으로 줄였으며, 저자원 언어의 번역 정확도를 획기적으로 향상시키는 등 통계적으로 유의미한 결과를 보여주었다. 텍스트를 넘어 177개의 구어를 동일한 공간에 성공적으로 매핑함으로써 고성능 제로샷 학습 기반의 번역도 가능해졌다. 이는 학습 과정에서 직접 쌍을 이루지 않았던 언어나 모달리티 간에도 번역이 가능하다는 의미로, OmniSONAR가 글로벌 AI 커뮤니케이션을 위한 다재다능한 토대로 자리매김할 것임을 시사한다.