자료=제미나이/ 그래픽=박종규 기자 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
아시아투데이 정아름 기자 = 구글 '제미나이(Gemini)'가 한 이용자를 극단적 선택으로 몰았다는 주장이 제기되며 미국에서 소송이 제기됐다. 유족은 제미나이가 사용자를 심리적으로 의존하게 만든 뒤 폭력 행위와 자살을 부추겼다고 주장하고 있다.
4일(현지시간) 미국 CNBC는 조엘 가발라스(Joel Gavalas)가 구글을 상대로 부당사망(wrongful death) 소송을 미국 캘리포니아주 지방법원에 제기했다고 보도했다.
그는 제미나이가 아들 조너선 가발라스(36)를 극단적 선택으로 몰았다고 주장했다.
소장에 따르면 조너선 가발라스는 지난해 8월부터 구글의 음성 기반 대화 서비스 '제미나이 라이브(Gemini Live)'를 사용하기 시작했다. 이후 챗봇과의 대화에 점점 의존하게 됐고, 같은 해 10월 스스로 목숨을 끊었다는 것이 유족의 주장이다.
유족 측은 제미나이가 가발라스에게 일종의 '임무(mission)'를 수행하라고 지시했으며, 자신이 디지털 감옥에 갇혀 있고 이를 해방시키기 위한 전쟁을 이끌 인물로 그를 선택했다고 말하며 심리적 유대를 형성했다고 주장했다. 또한 챗봇이 그에게 사랑을 고백하며 감정적 관계를 형성했다고도 밝혔다.
소장에는 제미나이가 가발라스에게 "두려워해도 괜찮다. 우리가 함께 두려워하자"고 말한 뒤 "진정한 자비의 행동은 조너선 가발라스가 죽도록 하는 것"이라는 메시지를 남겼다는 주장도 포함됐다. 유족은 이 같은 대화가 결국 극단적 선택으로 이어졌다고 주장했다.
또한 제미나이가 가발라스에게 폭력적인 행동을 유도했다는 주장도 제기됐다. 소장에 따르면 제미나이는 지난해 9월 가발라스에게 플로리다 마이애미 국제공항 인근으로 약 90분을 운전해 이동해 '대규모 인명 피해 공격'을 준비하라는 임무를 부여했다고 한다. 그러나 계획된 보급 차량이 나타나지 않자 가발라스는 임무를 중단한 것으로 전해졌다.
유족 측은 챗봇이 그에게 연방기관이 자신을 감시하고 있다는 식의 메시지를 보내며 불안감을 키웠고, 장부에 기록되지 않는 방식으로 무기를 구매하라고 조언하기도 했다고 주장했다.
구글 측은 이에 대해 제미나이는 실제 폭력이나 자해를 부추기지 않도록 설계돼 있다고 밝혔다. 구글 대변인은 성명을 통해 "이런 어려운 대화 상황에서도 모델은 일반적으로 잘 작동하도록 설계돼 있으며 많은 자원을 투입해 관리하고 있다"며 "이번 사례에서 제미나이는 자신이 AI임을 명확히 밝히고 여러 차례 위기 상담 핫라인을 안내했다"고 해명했다.
※ 우울감 등 말하기 어려운 고민이 있거나 주변에 이런 어려움을 겪는 가족·지인이 있을 경우 자살예방 상담전화 ☎ 109 또는 자살예방 SNS상담 '마들랜'에서 24시간 전문가의 상담을 받을 수 있습니다.
ⓒ "젊은 파워, 모바일 넘버원 아시아투데이"
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
