MIT, 안전한 의료 진단을 위한 '겸손한 AI' 개발
- •MIT 연구진이 의료 진단 과정에서 스스로의 불확실성을 감지하고 알리는 '겸손한 AI' 프레임워크를 구축했다.
- •인식론적 미덕 점수를 활용해 AI의 신뢰 수준을 평가하며, 판단 근거가 부족할 경우 추가 데이터를 요청한다.
- •의료진의 과도한 AI 의존을 방지하고 임상 데이터에 내재된 편향성을 해결하기 위한 협업 모듈을 제안한다.
현재의 AI 시스템은 종종 지나치게 확신에 찬 신탁처럼 행동하며, 이로 인해 임상 전문가들은 자신의 직관과 어긋나는 상황에서도 오류가 섞인 자동화된 제안을 따르기도 한다. 하버드 의과대학 연구진이 참여한 MIT 주도 연구팀은 이러한 문제를 해결하기 위해 절대적 권위자가 아닌 협력적 코치 역할을 수행하는 '겸손한 AI' 프레임워크를 선보였다. 이러한 접근 방식은 수동적인 수용에서 벗어나 의료진과 AI 사이의 능동적인 파트너십을 구축하며, 특히 중환자실과 같은 고위험 환경에서 중요한 역할을 할 것으로 기대된다.
이 시스템의 핵심은 모델이 스스로의 확실성을 평가할 수 있도록 돕는 계산적 검증 체계인 '인식론적 미덕 점수(Epistemic Virtue Score)'다. 가용한 증거가 신뢰할 만한 예측을 내리기에 불충분할 경우, AI는 스스로 판단을 멈추고 낮은 신뢰도를 표시한 뒤 의사에게 추가 정보를 수집하거나 전문가의 의견을 구하도록 안내한다. 이러한 자기 인식 메커니즘을 통해 AI의 권위 수준은 기저에 깔린 환자 데이터의 품질 및 복잡성에 비례하여 유지된다.
연구진은 기술적 지표를 넘어 MIMIC 데이터베이스와 같은 자원을 활용한 포용적 데이터 관행의 중요성을 강조한다. 대다수 임상 모델은 광범위한 사회경제적 맥락이 부족하거나 농어촌 인구가 배제된 기록으로 학습되어 의료 소프트웨어에 구조적 불평등을 고착시킬 위험이 있다. 본 프레임워크는 AI 내부에 데이터에 대한 호기심을 유도함으로써 사용자가 데이터셋 자체에 의문을 갖도록 장려하며, 결과적으로 의료 도구가 기술적 견고함과 사회적 책임을 동시에 갖추도록 돕는다.