컨텐츠 바로가기

11.27 (수)

이슈 성착취물 실태와 수사

AI 학습 데이터에서 ‘아동 성착취물’ 2000장 넘게 나왔다

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

성범죄 우려에 대거 삭제

경향신문

AI(인공지능)문자 이미지. 로이터

<이미지를 클릭하시면 크게 보실 수 있습니다>


인공지능(AI) 학습 훈련에 데이터베이스에서 아동 성착취 관련 이미지들이 대거 삭제됐다. 아동을 대상으로 한 딥페이크 성범죄에 사용될 수 있다는 우려에서다.

30일(현지시간) AP통신에 따르면 비영리 오픈소스 이미지 데이터베이스인 ‘LAION’은 최근 미국 스탠퍼드대를 비롯해 캐나다·영국 기관들과 협업해 데이터베이스에서 아동 성착취 이미지 2000개 이상을 삭제했다. LAION은 인터넷 공간의 각종 이미지를 분류한 뒤 텍스트를 이미지로 변환해 AI에 제공하는 데이터베이스다.

문제는 데이터베이스에 존재하는 아동 성 착취 이미지가 딥페이크 성범죄 등 또 다른 아동 학대로 이어질 수 있다는 것이다.

실제로 최근 AI를 이용한 이미지 생성 사이트에서 아동을 대상으로 한 딥페이크 성범죄가 증가했다. 앞서 스탠퍼드대는 지난해 12월 LAION에서 최소 1000개 이상의 아동 성착취 이미지를 발견했다는 보고서를 발표하기도 했다.

보고서 책임 저자인 데이비드 티엘은 LAION의 아동 성착취 이미지 삭제를 환영했지만, 다음 조치도 이어져야 한다고 지적했다. 실제 아동 성착취 이미지가 아니더라도 아동을 대상으로 한 딥페이크 성범죄에 사용될 수 있는 이미지의 AI 제공도 중단돼야 한다는 것이다.

전문가들은 아동 성착취 콘텐츠와 당사자의 동의를 받지 않은 음란물을 AI 데이터베이스에서 걸러내고, 제거하기 위한 규약을 마련해야 한다고 주장하고 있다.

노정연 기자 dana_fm@kyunghyang.com

▶ 매일 라이브 경향티비, 재밌고 효과빠른 시사 소화제!
▶ 해병대원 순직 사건, 누가 뒤집었나? 결정적 순간들!

©경향신문(www.khan.co.kr), 무단전재 및 재배포 금지

기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.