AWS, Amazon Bedrock 기반 확장형 비디오 분석 출시
- •Amazon Bedrock, 자동화된 비디오 이해 및 의미 추출을 위한 3가지 전문 워크플로우 도입
- •Amazon Nova 모델을 활용한 지능형 프레임 중복 제거 및 장면 기반 서사 분할 시스템 구축
- •서버리스 아키텍처를 통한 보안, 미디어 제작 및 모더레이션 분야의 비용 효율적 비디오 메타데이터 생성 지원
아마존 웹 서비스(AWS)가 Amazon Bedrock의 멀티모달 기능을 활용한 고도화된 비디오 분석 프레임워크를 공개했다. 기존에는 수시간 분량의 영상을 분석하기 위해 수작업으로 검토하거나, 문맥 파악 능력이 부족한 단순 규칙 기반 소프트웨어에 의존해야만 했다. 새로 도입된 솔루션은 AI가 시각 및 청각 정보를 동시에 처리하도록 지원함으로써, 가공되지 않은 픽셀 데이터를 세 가지 아키텍처 경로를 통해 검색 가능한 데이터로 변환하며 기술적 격차를 해소했다.
첫 번째 방식인 프레임 기반 분석은 지능형 샘플링을 통해 중복된 장면을 제외하고 핵심적인 순간만을 포착한다. 특히 비용 최적화를 위해 고수준의 시각적 연산을 활용하는데, 이는 새로운 프레임이 이전 프레임과 비교해 유의미한 정보를 추가하는지 판단하는 중복 제거(deduplication) 과정을 거친다. 이러한 과정을 통해 AI가 처리해야 할 이미지 수를 획기적으로 줄임으로써, 기업은 막대한 컴퓨팅 비용 부담 없이 제조 공정이나 보안 피드를 효율적으로 모니터링할 수 있게 됐다.
TV 프로그램이나 스포츠 중계처럼 복잡한 서사가 포함된 영상의 경우, 장면 전환을 기준으로 영상을 자연스럽게 분할하는 샷 기반(shot-based) 워크플로우가 적용된다. 이를 통해 AI는 단순한 시간 간격이 아닌, 구체적인 스토리 흐름에 맞춘 요약문과 메타데이터를 생성할 수 있다. 한편, 임베딩 기반 방식은 시각적 장면을 수학적 벡터로 변환하여 사용자가 방대한 비디오 라이브러리 내에서 특정 동작이 발생하는 모든 순간을 찾는 등의 자연어 검색을 수행하도록 지원한다.
서버리스 아키텍처로 설계된 이 시스템은 개발자가 복잡한 서버 관리 없이도 단일 클립부터 수백만 개의 파일까지 분석 규모를 유연하게 확장할 수 있게 해준다. AWS는 자동 오디오 전사 기능과 비용 추적 도구 등을 통합함으로써 소매업부터 글로벌 미디어 제작에 이르기까지 다양한 산업군에서 고도화된 비디오 인텔리전스를 손쉽게 활용할 수 있도록 돕는다.