의료계의 새로운 골칫거리, '섀도 AI' 리스크 관리
- •의료 전문가의 40%가 업무 중 비인가 AI 도구를 접한 경험이 있다고 응답했다.
- •조사 대상 임상의의 17%는 이미 진료 과정에서 비인가 AI 도구를 직접 사용하고 있다고 인정했다.
- •전문가들은 보안 리스크를 통제하기 위해 무조건적인 금지보다는 체계적인 정책 프레임워크 구축을 권장한다.
빠르게 변화하는 의료 현장에서 업무 효율을 높이려는 압박은 '섀도 AI(Shadow AI)'라는 미묘하지만 중대한 흐름을 만들어내고 있다. 이는 IT 부서의 검증이나 공식 승인을 거치지 않은 공공 챗봇, 생성형 모델 등을 업무에 활용하는 현상을 의미한다. 건강 관리 솔루션 기업인 Wolters Kluwer가 의료 전문가 500명을 대상으로 진행한 최근 설문조사에 따르면, 이러한 현상은 일부에 국한된 것이 아니라 널리 퍼진 관행으로 드러났다. 응답자의 40%가 직장에서 비인가 도구를 접했다고 답했으며, 17%는 실제 임상 의사결정에 이를 사용 중이라고 밝혔다.
의료진이 이러한 도구에 매력을 느끼는 이유는 분명하다. 행정 업무 부담이 가중되거나 복잡한 임상 상황에서 빠른 정보 확인이 필요할 때, 시중의 생성형 AI 모델은 편리하고 시간을 절약해 주는 비서처럼 보이기 때문이다. 그러나 이러한 편의성 뒤에는 상당한 위험이 따른다. 보건 데이터 보호와 근거 중심 검증을 갖춘 기업용 Clinical Decision Support System과는 달리, 일반 대중용 챗봇은 환자 정보 보호 규정을 준수하거나 의료 정보의 정확성을 보장하지 않는다.
의사가 비인가 도구를 사용해 환자 사례를 분석하면, 민감한 환자 정보가 제3자 서버로 전송될 위험이 있다. 이 데이터는 사용자 동의 없이 모델 학습에 재사용될 가능성을 배제할 수 없다. 또한, 이러한 모델은 의료 논리나 참고 문헌을 제시할 때 그럴듯하지만 사실이 아닌 내용을 생성하는 '환각(Hallucination)' 현상에 취약하다. 실수조차 용납되지 않는 엄격한 임상 현장에서 정보원의 신뢰성은 타협할 수 없는 가치다.
의료 기관 리더들은 이제 어떻게 대응해야 할지 고민에 빠졌다. 무조건적인 사용 금지를 고려할 수도 있지만, 전문가들은 이러한 강경책이 오히려 역효과를 낳을 수 있다고 경고한다. 금지 중심의 정책은 기술 활용에 능숙한 직원들을 막지 못할뿐더러, 오히려 사용 행태를 음지로 숨겨 IT 팀이 실제 리스크를 모니터링하고 제어하기 어렵게 만들기 때문이다.
따라서 더욱 효과적인 전략은 선제적인 관여와 소통이다. 의료 기관은 고위험 사용 사례와 단순 행정 보조를 구분하는 투명한 가이드라인을 수립해야 한다. 직원들에게 안전하고 검증된 AI 대안을 제공한다면, 환자 안전과 데이터 무결성을 훼손하지 않으면서도 기술이 주는 생산성 향상을 충분히 누릴 수 있다. 핵심은 금지 문화에서 책임 있는 거버넌스 기반의 통합으로 나아가는 것이다.