Meta, 2027년까지 이어지는 고속 AI 칩 로드맵 공개
- •Meta가 2027년까지 4세대에 걸친 MTIA 로드맵을 발표했다.
- •새로운 아키텍처는 메모리 대역폭을 4.5배 늘려 생성형 AI 추론 성능을 최우선으로 고려한다.
- •칩렛 설계를 활용해 6개월마다 신제품을 출시하는 고속 개발 전략을 추진한다.
Meta가 자사 소셜 플랫폼의 방대한 연산 수요를 감당하기 위해 자체 반도체 전략을 공격적으로 확장하고 있다. 공개된 로드맵에는 300 시리즈부터 500 시리즈에 이르는 Meta Training and Inference Accelerator(MTIA)의 4세대 모델이 포함됐다. 특히 하드웨어 성능을 모델 아키텍처의 빠른 진화 속도에 맞추기 위해 6개월 단위의 고속 개발 주기를 채택한 점이 눈에 띈다. 이러한 접근 방식은 재사용 가능한 하드웨어 블록인 칩렛 기술에 기반하며, 덕분에 연산이나 네트워킹 구성 요소를 전통적인 제조 방식보다 훨씬 빠르게 독립적으로 업그레이드할 수 있다.
전략의 우선순위는 사용자를 위한 콘텐츠 생성 단계인 추론(Inference) 과정에 맞춰져 있다. 이는 Meta의 전체 운영 부하 중 가장 큰 비중을 차지하기 때문이다. 곧 출시될 MTIA 450 및 500 모델은 대규모 텍스트와 이미지 생성 시 발생하는 병목 현상을 해결하기 위해 메모리 처리량을 대폭 강화했다. 또한 개발자들이 복잡한 과정 없이 즉시 칩을 활용할 수 있도록 PyTorch 기반의 소프트웨어 스택에 직접 통합했다. 실제로 연구원들은 Triton 컴파일러와 같은 친숙한 프레임워크를 통해 별도의 소프트웨어 복잡성 없이 커스텀 실리콘에 모델을 배포할 수 있다.
MTIA 제품군은 단순히 성능 향상에 그치지 않고 표준화된 랙 아키텍처와 액체 냉각 기술을 적용해 데이터 센터 통합을 용이하게 설계됐다. 이처럼 AI 하드웨어와 소프트웨어를 수직 계열화함으로써 Meta는 외부 반도체 업체에 대한 의존도를 낮추는 동시에 수십억 명 규모의 AI 경험을 제공하는 데 드는 비용을 절감하고자 한다. 결과적으로 이러한 행보는 커스텀 실리콘을 인프라의 핵심으로 자리매김하게 하며, Llama 모델 시리즈와 차세대 생성형 시스템의 기술적 요구 사항에 최적화된 전문 가속기로 나아가는 계기가 될 전망이다.