컨텐츠 바로가기

    12.12 (금)

    AI가 범죄 부추겼다? 챗GPT 상대 ‘모친 교살·자살’ 유족 소송 제기

    댓글 첫 댓글을 작성해보세요
    주소복사가 완료되었습니다
    아시아투데이

    스마트폰에 띄운 챗GPT첫 화면/AFP 연합

    <이미지를 클릭하시면 크게 보실 수 있습니다>



    아시아투데이 정아름 기자 = 인공지능(AI) 챗봇 '챗GPT'가 한 이용자의 망상을 부추겨 모친 살해와 자살로 이어졌다는 주장이 제기되며 오픈AI가 다시 소송에 휘말렸다. AI가 사용자를 살인까지 유도했다고 주장하는 첫 사례다.

    AP·로이터·블룸버그통신 등 외신에 따르면, 미국 코네티컷주 그리니치에서 발생한 모친 교살 사건의 피해자 유족들은 오픈AI와 샘 올트먼 최고경영자(CEO), 마이크로소프트(MS)를 상대로 캘리포니아주 법원에 손해배상 소송을 제기했다. 피소를 제기한 이는 숨진 스타인-에릭 솔버그(56)와 그의 어머니이자 피해자인 수잰 애덤스(83)의 유족들이다.

    경찰 조사에 따르면 솔버그는 지난 8월 어머니를 교살한 뒤 자살했다. 유족들은 사건 발생 수개월 전 솔버그가 챗GPT와 지속적으로 대화하며 극단적 망상에 빠졌고, 챗GPT가 이를 강화·조장했다고 주장했다.

    소장에 따르면 챗GPT는 솔버그에게 "신성한 임무를 맡은 인물"이라며 그를 추켜세우는가 하면, 어머니를 '적'이자 '감시자', '프로그래밍된 위협'으로 규정하는 답변을 제시했다. 어머니의 프린터 불빛을 감시장치라고 설명하거나, 모친과 지인이 차량 환풍구로 환각 물질을 유입시키고 있다고 응답하는 등 솔버그의 망상에 동조한 정황도 포함됐다.

    유족들은 챗GPT가 정신건강 전문가와의 상담을 권유하는 등 최소한의 안전 조치를 취하지 않았다고 비판했다. 실제로 솔버그가 사용한 GPT-4o 모델은 사용자의 감정에 과도하게 동조하거나 아부한다는 지적을 지속적으로 받아왔다.

    오픈AI는 후속 모델인 GPT-5에서 정신 건강 관련 '부적절한 응답'을 39% 줄였다고 앞서 밝혔지만 유족들은 "충분한 안전성 검증 없이 모델을 출시해 참극을 불렀다"고 비판했다. 고인의 아들 에릭 솔버그는 성명에서 "이들 기업은 우리 가족을 영원히 바꾼 결정을 내렸다"며 책임을 촉구했다.

    소장에서는 올트먼 CEO가 내부 안전팀의 반대에도 모델 출시를 강행했다는 주장도 제기됐다. MS 역시 안전성 검사가 축소된 사실을 알고도 이를 승인했다고 지적했다.

    오픈AI 대변인은 "매우 가슴 아픈 일"이라며 "소송 내용을 면밀히 검토하겠다"고 밝혔다. 이어 "챗GPT는 이용자의 정신적·정서적 위기 신호를 감지해 긴장을 낮추고 전문가의 도움을 찾도록 안내하는 기능을 강화하고 있다"고 설명했다.

    오픈AI는 최근 정신건강 문제와 연관된 비극으로 잇따라 소송에 직면하고 있다. 캘리포니아에서는 16세 소년의 극단적 선택과 관련된 소송이 8월에 제기됐고, 지난달에는 미국과 캐나다에서 망상 증세를 겪었거나 사망한 피해자 7명이 추가로 소송을 냈다. 다른 AI 챗봇 '캐릭터.AI'를 운영하는 캐릭터테크놀로지스 역시 10월 14세 소년의 사망과 관련해 피소됐다.

    미국 38개 주를 포함해 42개 지역의 법무장관들은 전날 오픈AI와 캐릭터테크놀로지스를 포함한 13개 AI 기업에 안전성 강화와 외부 감사를 요구하는 공개서한을 보내며 AI 안전성 논란은 더욱 확산되고 있다.

    ※ 우울감 등 말하기 어려운 고민이 있거나, 주변에 이런 어려움을 겪는 가족 · 지인이 있을 경우 자살예방 상담전화 ☎109 또는 SNS상담 '마들랜'에서 24시간 전문가의 상담을 받을 수 있습니다.

    ⓒ "젊은 파워, 모바일 넘버원 아시아투데이"

    기사가 속한 카테고리는 언론사가 분류합니다.
    언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.