컨텐츠 바로가기

11.09 (토)

이슈 인공지능 시대가 열린다

"분명 내 목소리인데, 나 아냐"…스칼렛 요한슨도 당한 'AI 딥페이크'

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

스칼렛 요한슨·톰행크스, 초상·목소리 도용한 딥페이크 광고에 경고

일론 머스크 딥페이크 영상, 코인 투자자 모집에 악용

국내서도 유명인 사칭 가짜 광고로 골치…"AI 아바타 기술 접목되면 끔찍"

뉴시스

블랙위도우 스틸컷(사진=월트 디즈니 컴퍼니 코리아) *재판매 및 DB 금지

<이미지를 클릭하시면 크게 보실 수 있습니다>



[서울=뉴시스]송혜리 기자 = "안녕하세요 여러분? 스칼렛이에요. 저랑 같이 가주세요…"

마블 영화 '블랙위도우' 주연배우 스칼렛 요한슨이 인공지능(AI) 기술로 자신의 사진과 목소리를 도용한 광고 출현에 발끈했다. 소셜네트워크서비스(SNS) 엑스(구 트위터)를 통해 유포된 22초 짜리 광고에서 스칼렛 요한슨을 흉내 낸 AI 아바타는 "이 앱으로 아바타 뿐만 아니라 텍스트와 이미지도 만들 수 있다"며 해당 앱을 홍보한다. 이른바 AI 기술 기반 딥페이크 영상이다.

국내에서도 최근 유명인을 사칭한 가짜광고가 기승을 부리고 있는 가운데, 이같은 AI 딥페이크 기술을 악용해 실제 유명인을 그대로 모방한 가짜 영상 출현은 시간 문제라는 게 전문가들의 경고다.

스칼렛요한슨·톰행크스까지 "딥페이크 사칭 광고에 속지마라" 당부


2일(현지시간) 현지 미디어 보도에 따르면, 헐리우드 배우 스칼렛 요한슨은 자신의 사진과 목소리를 AI 기술로 변조, 이를 광고에 사용한 AI 앱 제작사에 법적 조치를 취할 방침이다.

스칼렛 요한슨의 사진과 영화 속 목소리를 무단 사용해 그를 그대로 흉내낸 AI 아바타를 만들고, '리사 AI'라는 AI 이미지 편집 앱을 홍보하는 광고에 사용한 것이 발단이다. 요한슨의 AI아바타는 블랙위도우 세트장을 배경으로 등장해 "안녕하세요, 스칼렛이에요, (이 앱을) 놓치지 말아야 할 것 같다"고 말한다. 지난달 28일 엑스(구 트위터)에 등장한 이 광고는 논란 이후 현재는 자취를 감췄다.

지난달에는 미국 유명배우 톰 행크스도 자신의 AI아바타를 활용한 치과 보험 홍보 영상이 협의되지 않은 채 유포되고 있다고 경고했다. 그는 자신의 소셜미디어서비스(SNS)를 통해 "AI로 생성된 젊은 이미지가 무단으로 광고에 쓰였다. 아무 관련이 없다, 조심하라"고 팬들에게 당부했다. 비슷한 시기 미국 CBS방송 진행자 게일 킹도 자신의 동의 없이 자신의 AI 아바타가 체중 감량 제품 홍보 영상에 쓰였다고 주장했다.

이외 영화 '굿윌헌팅'으로 유명한 배우이자 코미디언인 로빈윌리엄스의 딸 젤다 윌리엄스는 고인이 된 아버지를 AI로 복제한 게시물이 유통되고 있다고 지적하기도 했다. 로빈 윌리엄스는 지난 2014년에 사망했다.

지난 1월에는 조 바이든 미 대통령이 트랜스젠더 혐오 발언을 내뱉은 것처럼 꾸며낸 가짜 영상이 삽시간에 퍼졌다. 지난해에는 일론 머스크 테슬라 창업자를 똑같이 흉내낸 딥페이크 영상이 코인 투자자 모집 홍보 영상으로 악용돼 주목을 받았다. 이 가짜 영상에서 일론 머스크는 자신도 특정 코인에 투자했으며, 최소 30% 이상 수익을 거둘 수 있다고 소개하고 있다.
뉴시스

톰행크스가 자신의 SNS를 통해 사칭광고에 속지말라고 당부했다(사진=인스타그램 캡쳐) *재판매 및 DB 금지

<이미지를 클릭하시면 크게 보실 수 있습니다>



국내 유명인 사칭광고 골머리…"AI 딥페이크 기술 접목도 시간문제"


이같은 유명인 사칭 딥페이크 광고는 최근 국내서 기승을 부리고 있는 사칭·가짜광고의 고도화된 버전으로, 국내 출현도 시간문제라는 게 보안 전문가들의 지적이다.

딥페이크는 AI 기술인 딥러닝과 '가짜'를 의미하는 단어인 페이크의 합성어다. AI기술을 이용해 실제 같은 가상 정보를 생성하는 데, 이 기술이 악용될 경우 신분사칭, 생체인증 우회, 사기, 명예훼손 등 뿐만 아니라 가짜 뉴스·광고까지 기승을 부리며 사회를 혼란에 빠트릴 수 있다.

챗GPT를 비롯한 생성형 AI가 빠르게 보급되고 있는 가운데, 국내 보안 전문가들은 "AI 기반의 딥페이크 기술이 더욱 진화해 진짜와 가짜를 구분하기조차 어려워질 정도"라고 경고했다.

가장 큰 문제는 AI 기술 대중화로 누구나 어렵지 않게 특정인을 모방한 AI 합성물을 만들어낼 수 있다는 점이다. 최근 국내에서 유명인을 사칭한 가짜 광고가 페이스북·인스타그램 등 소셜네트워킹서비스(SNS)과 구글 배너광고 등을 통해 빠르게 확산되고 있는 가운데, AI 딥페이크 기술이 접목될 경우 가짜 광고로 인한 피해가 지금과는 차원이 다른 수준이 될 것을 우려하고 있다.

AI 딥페이크 기술이 가짜 뉴스, 가짜 광고 문제 뿐 아니라 일반인들을 겨냥한 피싱범죄에도 악용될 소지도 다분하다. AI가 개인정보를 광범위하게 수집한 결과로 만들어낸 피싱메일은 마치 잘 알고 지낸 사람이 보낸 인사메일로 둔갑할 수 있고, 짧은 인사말 한마디로 복제한 음성은 가족들을 속여 몸값을 받아내는데 활용 될 것이란 설명이다.

한 보안 전문가는 "최근엔 몇 마디 말을 만들수 있는 콘텐츠로 만들어주는 기술도 등장했는데, 이것은 사람이 만들었는지 AI가 만들었는지 구분조차 안되는 수준"이라고 지적했다.

☞공감언론 뉴시스 chewoo@newsis.com

▶ 네이버에서 뉴시스 구독하기
▶ K-Artprice, 유명 미술작품 가격 공개

<저작권자ⓒ 공감언론 뉴시스통신사. 무단전재-재배포 금지.>
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.