AWS, 수학적 논리로 챗봇 답변 검증한다
- •AWS가 LLM의 정확성을 수학적 논리로 검증하는 오픈소스 챗봇 기술을 공개했다.
- •시스템은 정책 기반 추론 검사를 포함한 반복 루프를 통해 할루시네이션을 수정한다.
- •금융 및 의료 등 규제 산업을 위해 투명한 증명 로그를 제공하여 신뢰성을 높였다.
AWS는 거대언어모델(LLM)의 창의적인 유연성과 규제 산업에서 요구되는 엄격한 정확도 사이의 간극을 메우는 새로운 챗봇 참조 구현을 도입했다. 일반적인 AI 모델은 확률에 기반해 다음 단어를 예측하지만, 사실과 전혀 다른 내용을 확신에 차서 말하는 할루시네이션 현상에 취약하다는 한계가 있다. 이에 따라 AWS는 단순한 통계적 추측 대신 수학적 논리를 사용하여 문장의 참과 거짓을 입증하는 컴퓨터 과학 분야인 ‘자동 추론’을 통합함으로써 이 문제를 해결했다.
이 시스템의 핵심 아키텍처는 Amazon Bedrock 플랫폼을 활용한 반복적인 수정 루프에 있다. 사용자가 질문을 던지면 모델은 먼저 초안 답변을 생성하고, 이후 가드레일 인터페이스를 통해 자동 추론 검사를 수행한다. 시스템은 단순히 답변이 맞는지 추측하는 데 그치지 않고, 논리적 연역법을 적용하여 모호함이나 사실 관계의 오류를 찾아낸다. 특히 문제가 발견될 경우 AI에게 구체적인 피드백을 제공하며, AI는 정의된 안전 및 정확도 정책에 맞게 답변을 다시 작성하는 과정을 거친다.
이러한 과정은 답변이 수학적으로 유효하다고 검증될 때까지 반복된다. 무엇보다 개발자와 감사자를 위해 최종 출력물을 검증하는 데 사용된 구체적인 추론 과정과 증명을 포함한 종합 감사 로그를 생성한다는 점이 주목할 만하다. 이는 사용자가 결과를 맹목적으로 믿어야 했던 기존 ‘블랙박스’ AI 시스템에서 벗어난 중대한 변화다. 결과적으로 AWS는 Amazon Bedrock의 유연성과 형식 논리의 정밀함을 결합함으로써, 금융이나 법률 환경처럼 민감한 업무를 수행할 수 있는 신뢰할 수 있는 에이전틱 AI의 토대를 마련하고 있다.