컨텐츠 바로가기

06.29 (토)

[팩플] 안전·신뢰 잡음 생긴 오픈AI, 차세대 음성 비서 출시 연기

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
차세대 AI(인공지능) 비서로 기대감을 키운 오픈AI의 음성모드 AI 서비스 출시가 안전성을 이유로 미뤄졌다. 음성 모드는 오픈AI의 최신 AI 모델 ‘GPT-4o’(포오)의 핵심 서비스다. GPT-4o는 지난달 오픈AI 온라인 행사에서 카메라를 통해 상황을 인식하고 이용자와 자연스럽게 대화하는 기술을 선보이며 주목받았다. 당시 오픈AI는 이 서비스를 “몆 주 내로 출시하겠다”고 밝혔지만, 단기간 상용화는 불투명해졌다.



무슨 일이야



중앙일보

오픈AI GPT-4o 시연. 사진 오픈AI

<이미지를 클릭하시면 크게 보실 수 있습니다>


25일(현지시간) 블룸버그 등 외신에 따르면 오픈AI는 “GPT-4o 음성모드의 특정 콘텐트를 감지하고 거부하는 기능을 개선 중”이라며 “내부 안전과 신뢰성 검사가 충족될 때까지 정식 출시를 미룰 계획”이라고 밝혔다. 일부 유료 가입자를 대상으로 한 음성모드 테스트 출시는 기존에 예고한 6월에서 한 달 미룬 다음 달 진행할 계획이다. 오픈AI는 “자체 출시 기준에 도달하려면 한 달이 더 필요하다고 판단했다”면서 “사용자 경험을 개선하고 사용자 수백만명에게 실시간 응답이 가능하게끔 인프라를 준비 중”이라고 설명했다.



이게 무슨 의미야



이번 결정은 그간 오픈AI를 향해 쏟아졌던 안전성과 신뢰성 지적을 의식한 조치로 풀이된다. 2022년 11월 ‘챗GPT’를 출시한 오픈AI는 그간 빠르게 제품을 출시하고 서비스와 기술 피드백을 반영한 뒤 업데이트 제품을 출시해왔다. AI 할루시네이션(환각·그럴싸한 거짓말) 등의 문제는 새로운 버전을 출시하며 보완하는 식이었다. 이렇게 속도를 중시했던 오픈AI가 이번엔 안전성에 무게를 두기로 했다.

중앙일보

지난해 6월 오픈AI 창업자 샘 올트먼(가운데)과 공동창업자 일리야 수츠케버(오른쪽). 사진 AFP

<이미지를 클릭하시면 크게 보실 수 있습니다>



업계에선 크게 2가지 이유를 든다. 우선, 지난달 오픈AI의 공동창업자이자 AI 안전을 강조한 일리야 수츠케버가 오픈AI를 떠나면서 안전성 우려가 커졌다. AI 안전 정책을 두고 최고경영자(CEO) 샘 올트먼과 충돌을 빚어온 수츠케버는 자신이 이끌던 사내 안전 조직 ‘수퍼얼라인먼트’팀이 해체되자 회사를 나왔다. 수츠케버는 엑스(X, 옛 트위터)를 통해 “안전한 초지능(safe superintelligence, SSI)을 구축하는 것은 우리 시대의 가장 중요한 기술적 문제”라면서 새 회사 ‘SSI’ 창업 사실을 알렸다.

아울러 지난달 오픈AI 온라인 행사 이후 배우 스칼릿 조핸슨과의 갈등도 영향을 미쳤다는 분석이다. 당시 GPT-4o의 5가지 음성모드 중 하나인 스카이(sky)가 스칼릿 조한슨의 목소리와 유사하다는 지적이 이어졌다. 조핸슨은 성명을 통해 “지난해 9월 올트먼 CEO가 GPT-4o의 음성을 담당해 달라고 제안했지만, 개인적인 이유로 제안을 거절했다”며 “공개된 영상을 들었을 때 내 목소리와 매우 유사해 충격과 분노를 느꼈다”고 밝혔다. 오픈AI 측은 전문 배우 목소리라고 해명한 뒤 해당 음성 사용을 중단했다.



계속되는 안전 우려



중앙일보

‘챗GPT의 아버지’ 샘 올트먼 오픈AI 최고경영자(CEO) [AFP=연합뉴스]

<이미지를 클릭하시면 크게 보실 수 있습니다>


AI 기술 개발의 성지인 실리콘밸리에선 기술 개발에 속도가 붙는 만큼 AI 안전에 대한 우려 목소리도 커지고 있다. 이달 초 오픈AI·구글 딥마인드·앤스로픽 등 전·현직 IT업계 종사자 13명은 ‘첨단 AI에 대해 경고할 권리’라는 제목의 공동 성명을 내고 기술의 위험성을 경고했다. 이들은 “AI 회사는 상당히 많은 비공개 정보를 보유하고 있고, 현재 이들 정보를 정부 및 시민 사회와 공유할 의무가 없다. 정보 조작·자율 AI 시스템 통제 상실 등 다양한 위험을 안고 있다”고 지적했다. AI 기술 발전에 속도가 붙고 AI가 인간과 유사한 수준까지 발전하면서, AI 기업의 안전성 관리, 위험 통제 능력이 사업과 전략에도 영향을 미칠 전망이다.



한국은 어때



국내 기업도 AI 위험 관리를 위한 대응책 마련에 나섰다. 네이버는 지난 17일 AI 안전성 실천 체계인 ‘ASF(AI 안전 프레임워크)’를 세웠다. AI가 불러올 위험을 ‘통제력 상실 위험’과 ‘악용 위험’으로 분류하고 ‘AI 위험 평가 스케일’을 통해 위험성을 주기적으로 평가한다. 생성AI 출시를 앞둔 카카오는 AI 윤리와 안전성을 검토하고, 관련 정책 수립 및 연구를 진행하는 ‘AI 세이프티’ 조직을 신설했다.

■ 더중앙플러스 : “앗 내 실수” 인간적 AI 비서…빅테크가 돈 퍼붓는 이유다

중앙일보

오혜정 디자이너

<이미지를 클릭하시면 크게 보실 수 있습니다>


오픈AI부터, 구글, MS까지 빅테크들이 모두 AI 비서(에이전트) 개발에 열을 올리고 있습니다. AI에이전트가 왜 글로벌 IT 업계에서 가장 뜨거운 관심을 받고 있는지 팩플이 집중 분석했습니다. 자세한 내용이 궁금하시다면, 기사 링크를 복사해 주소창에 붙여넣으세요.

“앗 내 실수” 인간적 AI 비서…빅테크가 돈 퍼붓는 이유다

https://www.joongang.co.kr/article/25253848

어환희·여성국 기자 eo.hwanhee@joongang.co.kr

중앙일보 / '페이스북' 친구추가

넌 뉴스를 찾아봐? 난 뉴스가 찾아와!

ⓒ중앙일보(https://www.joongang.co.kr), 무단 전재 및 재배포 금지
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.