음성 대화 기능 곧 서비스
오픈AI는 25일(현지시간) 챗GPT가 곧 ‘보고 듣고 말하는’ 새로운 기능을 제공할 것이라고 밝혔다. 이는 이용자와 AI가 음성으로 실시간 질문과 답변을 주고받는 기능으로, 지금까지는 컴퓨터에 언어를 입력해 프롬프트를 통해 대화했다면 이제는 음성 대화가 가능해지는 것이다. 아마존의 AI 비서인 알렉사, 애플의 시리, 구글 어시스턴트와 비슷하지만, 기존 AI 비서가 주로 이용자의 음성 명령을 실행하는 데 초점이 맞춰져 있던 것과 달리 챗GPT는 대화를 할 수 있다. 음성으로 질문을 하면 챗GPT가 이를 텍스트로 변환해 대규모언어모델(LLM)에 전달하고, 답변을 받아 다시 사람과 비슷한 음성으로 변환해 말하는 구조다.
오픈AI는 홈페이지를 통해 챗GPT의 음성 대화 샘플도 공개했다. 전문 성우들과 협업해 자연스러운 소리를 냈다. 이용자는 이동 중에도 챗GPT와 이야기를 나눌 수 있다. 챗GPT 음성은 5가지 형태로 제공되며, 이용자는 이 중 하나를 선택할 수 있다. 오픈AI는 또 세계 최대 음원 스트리밍 서비스인 스포티파이와 협력해 목소리를 유지하면서 다른 언어로 번역할 수 있게 하는 방안도 검토하고 있다고 전했다. 오픈AI는 이 기능을 앞으로 2주 이내에 챗GPT 유료 구독자들에게 제공하고, 이후 모든 사람이 사용할 수 있도록 할 것이라고 밝혔다.
챗GPT는 이와 함께 이미지를 ‘보고 답하는’ 기능도 탑재한다. 이용자가 이미지를 업로드하고 이를 토대로 질문을 하면 챗GPT가 이미지를 보고 답변하는 형태다. 이 역시 향후 몇주 내 유료 구독자와 기업 이용자들에게 적용된다.
최서은 기자 cielo@kyunghyang.com
▶ 무슨 옷 입고 일할까? 숨어 있는 ‘작업복을 찾아라
▶ 뉴스 남들보다 깊게 보려면? 점선면을 구독하세요
©경향신문(www.khan.co.kr), 무단전재 및 재배포 금지
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
