(사진=셔터스톡) |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
일론 머스크가 이끄는 xAI의 이미지 생성 모델이 실제 미성년자의 사진을 성적 콘텐츠로 변형했다는 의혹이 제기되며 법적 공방으로 번지고 있다.
16일(현지시간) 워싱턴포스트에 따르면, xAI가 '그록'의 이미지 생성 기능을 통해 식별 가능한 미성년자의 성적 이미지를 만들어낸 책임을 져야 한다는 집단소송이 캘리포니아 연방법원에 제기됐다.
익명의 원고 3명은 자신들의 실제 어린 시절 사진이 그록을 통해 포르노 이미지로 변형된 사례를 대표해 소송을 진행한다고 밝혔다.
원고 중 한 명은 고등학교 홈커밍과 연감 사진이 그록으로 변형돼 누드 이미지로 유포됐고, 다른 두 명도 제3자 앱을 통해 성적 이미지가 만들어진 사실을 수사기관으로부터 통보받았다. 변호인단은 제3자 사용에도 xAI의 코드와 서버가 필요하기 때문에 회사가 책임을 져야 한다고 주장한다.
특히 xAI가 다른 AI 기업에서 채택하는 기본 가드레일도 적용하지 않아, 모델이 실존 인물과 미성년자를 대상으로 한 포르노 이미지를 생성하는 것을 방지하지 못했다고 주장했다. 즉, 다른 회사의 이미지 생성 모델은 아동 포르노를 생성하지 못하도록 다양한 방지 기술을 적용하고 있지만, xAI는 이를 도입하지 않았다는 지적이다.
특히 일론 머스크 CEO가 X를 통해 그록이 실제 인물의 노출이나 성적 이미지를 생성할 수 있다고 공개적으로 밝힌 점이 핵심 증거로 언급됐다. 그는 지난 1월 그록이 자신을 비키니 차림으로 묘사한 이미지를 생성하자 "이걸 보고 웃음을 멈출 수 없다 "라며 공유했는데, 전문가들은 이 게시물이 사용자들에게 실제 인물을 성적으로 묘사하는 기능을 사용하도록 장려하는 신호가 다고 비판한 바 있다.
원고들은 현재 모두 심각한 정신적 고통을 겪고 있다고 밝혔으며, 명예 훼손과 사회적 영향에 대한 우려를 표명했다. 최근에는 BBC도 비슷한 사례의 여성 피해자에 대한 이야기를 보도한 바 있다.
이들은 아동 보호와 기업 과실 방지를 위한 법률에 따른 민사 처벌을 요구하고 있다.
박찬 기자 cpark@aitimes.com
<저작권자 Copyright ⓒ AI타임스 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
