컨텐츠 바로가기

04.17 (수)

'딥페이크'로 가짜 누드사진 만들어 유포… 피해자만 10만명

댓글 3
주소복사가 완료되었습니다
암호화 메신저인 텔레그램에서 인공지능 기술을 이용해 여성의 가짜 나체 사진을 만드는 대화방이 러시아 등을 중심으로 운영되고 있는 것으로 나타났다. 특정 여성의 사진을 대화방에 전달하면 가짜 사진을 만들어 공유했는데, 피해자만 무려 10만 명이 넘는 것으로 조사됐다.

중앙일보

텔레그램 대화방에서 여성의 사진을 나체 사진으로 바꿔주는 딥페이크봇이 작동하는 방식. [사진 센시티 홈페이지]

<이미지를 클릭하시면 크게 보실 수 있습니다>


BBC는 20일(현지시간) 정보업체 센시티가 최근 이 같은 보고서를 발표했다고 보도했다. 보도에 따르면 범죄는 사람들이 대화방에 여성의 사진을 전달하면 ‘딥페이크 봇’이 옷을 제거한 가짜 사진을 만들어 공유하는 행태로 진행됐다. 딥페이크는 인공지능 기술을 이용해 실존 인물의 얼굴을 기반으로 가짜 영상을 만드는 편집물을 의미한다.

센시티는 지난해 7월부터 1년 동안 ‘딥페이크 봇’ 대화방에서 가짜 나체 사진이 유포돼 피해를 본 여성만 약 10만 5000명이라고 밝혔다. 특히 피해자 중 일부는 미성년자인 것으로 드러났다.

센시티의 최고경영자인 조르지오 파트리니는 BBC와 인터뷰에서 “딥페이크가 이제 일반인을 대상으로 쓰이기 시작했다”며 “소셜 미디어 계정에 공개된 사진을 올린 누구든 충분히 범죄의 표적이 될 수 있다”고 경고했다.

BBC에 따르면 신분이 명확히 밝혀지지 않은 이 ‘딥페이크 봇’의 운영자는 “이건 폭력적이지 않은 오락물”이라며 “사진의 질도 사실적이지 않아 아무도 이걸로 사람을 협박하진 않을 것”이라고 주장했다. 이어 그는 “기본적으로 사진의 공유 여부는 이 ‘딥페이크봇’을 이용한 사람에게 달렸다”고 주장했다.

이 딥페이크 봇의 이용자들은 대부분 러시아와 구소련 국가 출신인 것으로 알려졌다. 센시티는 이를 텔레그램 측과 관련 사법당국에 보고했지만, 어떤 반응도 보이지 않았다고 밝혔다.

석경민 기자 suk.gyeongmin@Joongang.co.kr

중앙일보 '홈페이지' / '페이스북' 친구추가

이슈를 쉽게 정리해주는 '썰리'

ⓒ중앙일보(https://joongang.co.kr), 무단 전재 및 재배포 금지
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.