컨텐츠 바로가기

03.30 (토)

"여성 사진 보내면 벗겨드립니다"…10만명 피해

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

텔레그램서 가짜 나체 사진 유포…미성년도 일부 포함

뉴스1

딥 페이크봇이 여성의 사진을 변형하는 과정-BBC 웹사이트 갈무리

<이미지를 클릭하시면 크게 보실 수 있습니다>


(서울=뉴스1) 권영미 기자 = 텔레그램에서 여성 약 10만명의 사진이 가짜 나체 사진으로 합성되어 공유되어 온 것이 밝혀져 충격을 주고 있다.

21일 영국 BBC는 민간 정보업체 센시티의 보고서를 인용. 텔레그램의 한 대화방에서 이용자들이 여성의 사진을 전달하면 인공지능(AI)이 사진의 옷을 지워내고 나체를 만들었으며, 이용자들이 이를 공유했다고 보도했다.

이들은 이른바 '딥 페이크' 기법을 사용했다. 딥 페이크란 특정 인물의 얼굴, 신체 등을 원하는 영상에 합성한 편집물이다. 해당 텔레그램 대화방에서는 지난해 7월부터 1년간 10만4852명의 여성 사진이 가짜 나체로 합성되어 유포되었다.

센시티 측은 이에 '딥 페이크봇'이라는 기술이 사용됐다고 밝혔다. BBC는 피실험자들의 동의를 얻어 여러 장의 사진을 이 기술을 통해 합성해보았지만 완전히 사실적인 결과물은 나오지 않았다고 밝혔다. 어떤 사진은 여성의 횡경막에 배꼽이 위치하는 등 우스꽝스러운 결과가 나왔다.

'P'로만 알려진 이 서비스의 운영 관리자는 "폭력이 수반되지 않은 오락일뿐"이라면서 "결과물이 비사실적이기 때문에 이걸로 누굴 협박할 수도 없다"고 주장했다. 그리고 팀이 어떤 사진이 공유되는지를 보고 있으며 "만약 미성년자 사진이 나오면 그 사용자를 영원히 차단한다"고 설명했다.

하지만 센시티의 조사 결과 일부 이미지는 미성년인 것으로 나타났다. 센시티는 "일부 사용자들이 주로 소아성애자 콘텐츠를 생성하고 공유하기 위해 이를 사용하고 있음을 암시한다"고 밝혔다. 센시티 측은 "공개 사진이 있는 소셜미디어 계정을 갖는 것만으로도 누구나 타깃이 될 수 있다"고 경고했다.
ungaungae@news1.kr

[© 뉴스1코리아(news1.kr), 무단 전재 및 재배포 금지]
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.