구글이 불법 이미지 검색 차단에 나섰다. [사진: 셔터스톡] |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
[디지털투데이 AI리포터] 구글이 비동의 성적 이미지(Non-Consensual Intimate Imagery, NCII) 차단을 위해 새로운 시스템을 도입한다.
18일(현지시간) IT매체 더 버지에 따르면 구글은 이미지 해싱 관련 기술 플랫폼 스톱NCII.org(StopNCII.org)와 파트너십을 체결했다. 구글은 향후 몇 달 내로 스톱NCII의 해시 기술을 적용해 구글 검색에서 비동의 성적 이미지를 식별하고 제거할 계획이다.
해시는 특정 이미지에 고유한 식별자를 부여해 실제 파일을 저장하지 않고도 차단할 수 있는 기술이다. 스톱NCII는 이미지에 PDQ, 영상에 MD5 해시를 적용한다고 설명했다.
블룸버그는 구글이 이 같은 조치를 도입하는 데 다소 늦었다고 지적했다. 페이스북, 인스타그램, 틱톡, 범블(Bumble)은 2022년부터 스톱NCII와 협력해 왔으며, 마이크로소프트도 지난해 빙(Bing) 검색에 이를 적용했다.
구글은 피해자가 이미지 삭제를 요청할 수 있는 도구를 제공하고 있지만, 이는 여전히 피해자가 직접 문제를 해결해야 하는 구조적 한계를 갖고 있다. 구글이 향후 AI 기술을 활용해 보다 능동적인 차단 시스템을 구축할지 주목된다.
<저작권자 Copyright ⓒ 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
