구글이 연구 자료와 노트를 영상 콘텐츠로 자동 변환하는 AI 기능을 공개하며 지식 정리 도구의 활용 범위를 확장하고 있다.
구글은 4일(현지시간) 노트북LM에 사용자의 연구 자료와 노트를 애니메이션 기반의 '시네마틱' 영상으로 자동 변환하는 새로운 기능을 추가했다.
이번 기능은 지난해 도입된 '비디오 개요(Video Overview)' 기능을 한 단계 발전시킨 것으로, 텍스트 중심의 연구 결과물을 더 직관적인 영상 콘텐츠로 바꿀 수 있도록 돕는다.
기존의 비디오 개요는 음성 내레이션이 포함된 슬라이드쇼 형태의 영상만 생성할 수 있었다. 그러나 새롭게 업그레이드된 기능은 여러 AI 모델을 결합해 사용자의 노트 내용을 바탕으로 동적 애니메이션과 시각 자료를 자동 생성한다.
이번 기능에는 '제미나이 3' '나노 바나나 프로' '비오 3' 등 구글의 최신 AI 모델이 활용된다. 제미나이는 영상 생성 과정에서 최적의 서사 구조와 시각 스타일, 형식을 스스로 선택하며, 결과물의 일관성을 유지하도록 자동으로 재조정하는 역할을 수행한다.
이 기능을 통해 사용자는 텍스트로 정리된 연구 결과를 몰입감 있는 영상 콘텐츠로 손쉽게 변환할 수 있게 됐다. 교육 자료 제작, 발표 준비, 복잡한 개념 설명 등 다양한 분야에서 활용될 수 있을 것으로 기대된다.
![]() |
한편, 구글은 검색 기능에도 AI 기반 작업 공간을 확대하고 있다. 이날부터 미국 사용자들을 대상으로 AI 검색 모드에 '캔버스(Canvas)' 기능을 도입해 문서 작성, 계획 수립, 코드 개발 등을 위한 별도의 작업 패널을 제공하기 시작했다.
AI 모드에서 툴 메뉴(+)를 클릭해 캔버스를 선택한 뒤 만들고 싶은 내용을 설명하면, 화면 측면에 캔버스 패널이 열리며 웹 정보와 구글 지식 그래프 데이터를 결합해 작업할 수 있다. 프로토타입이나 앱을 제작하는 경우 기능을 직접 테스트하고, 기본 코드 확인 및 수정도 가능하다. 이 과정에서 제미나이와 대화하며 기능을 세부 조정할 수 있다.
이 기능은 현재 영어 환경에서만 사용할 수 있다.
박찬 기자 cpark@aitimes.com
<저작권자 Copyright ⓒ AI타임스 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.

