MIT, 스크린을 벗어나 요리하는 AI '키친 코즈모' 공개
- •MIT 연구진이 AI 보조 요리를 위한 물리적 인터페이스인 '키친 코즈모(Kitchen Cosmo)'를 선보였다.
- •시각 언어 모델(VLM)을 활용해 식재료를 식별하고 사용자 맞춤형 레시피를 생성하는 인터랙티브 프로토타입이다.
- •물리적 다이얼과 감열식 프린터를 결합한 촉각적 디자인을 통해 AI를 디지털 스크린 너머의 영역으로 확장했다.
MIT 건축학과 학생들이 디지털 지능과 물리적 세계를 연결하는 촉각 인터랙티브 비서 '키친 코즈모(Kitchen Cosmo)'를 개발했다. 이 장치는 대규모 언어 모델(LLM)의 능력을 현실 환경에 구현하는 새로운 카테고리인 '대규모 언어 객체(LLO)'에 해당한다. 키친 코즈모는 기존의 스크린 중심 인터페이스를 탈피하여, 힌지형 웹캠으로 식재료를 스캔하고 이를 텍스트와 시각 정보를 동시에 처리하는 시각 언어 모델(VLM)을 통해 해석한다.
이번 프로젝트는 학생 연구원인 제이콥 페인(Jacob Payne)과 아야 마흐무드(Ayah Mahmoud)가 주도했으며, 1969년 출시된 '허니웰 316 키친 컴퓨터'에서 영감을 얻어 현대적인 생성형 AI 기능을 더했다. 사용자는 물리적 다이얼을 조작하여 식단 제한이나 '기분' 같은 매개변수를 설정하며 기기와 소통한다. 이러한 촉각적 접근 방식은 AI를 단순한 도구가 아닌 협력적인 파트너로 느끼게 한다. 실제로 이 모델은 미세 조정을 거쳐 지역별 향신료 특성이나 조리 온도와 같이 '물리적' 상식이 부족한 기존 텍스트 모델이 어려워하던 요리 개념을 정교하게 학습했다.
또한, 기기에 내장된 감열식 프린터는 종이 형태의 결과물을 제공하여 사용자가 주방 조리대에서의 활동에만 집중할 수 있도록 돕는다. 현재 제작진은 AI가 특정 주방 도구의 사용법을 직접 시연하는 '학습 모드'를 탐색 중이다. 이와 같이 AI가 물리적 공간에 배치되는 변화는 지능이 단순한 디지털 서비스를 넘어, 맥락을 이해하고 실시간으로 상호작용하는 물리적 실체로 진화하고 있음을 잘 보여준다.