컨텐츠 바로가기

    12.13 (토)

    챗GPT가 망상 부추겨 모친 살해·자살… 오픈AI 또 피소

    댓글 첫 댓글을 작성해보세요
    주소복사가 완료되었습니다

    "어머니는 감시자" AI 맞장구에 살인까지

    "챗GPT가 살인 유도" 미국서 첫 소송 제기

    아주경제

    챗GPT가 망상 부추겨 모친 살해·자살… 오픈AI 또 피소 [로이터=연합뉴스]

    <이미지를 클릭하시면 크게 보실 수 있습니다>



    [이코노믹데일리] 인공지능(AI) 챗봇 챗GPT가 사용자의 망상을 부추겨 존속 살해와 자살이라는 극단적인 비극을 초래했다는 이유로 법적 분쟁이 시작됐다. 오픈AI가 자사 AI 모델의 위험성을 인지하고도 충분한 안전장치 없이 출시해 인명 피해를 막지 못했다는 주장이 제기되며 AI 윤리 책임론이 거세질 전망이다.

    11일(현지시간) AP통신 등 외신에 따르면 미국 코네티컷주에 거주했던 스타인-에릭 솔버그(56)와 그의 어머니 수잰 애덤스(83)의 유족들은 오픈AI와 샘 올트먼 CEO 및 마이크로소프트(MS)를 상대로 캘리포니아주 법원에 손해배상 소송을 제기했다.

    경찰 조사 결과 솔버그는 지난 8월 어머니를 목 졸라 살해한 뒤 스스로 목숨을 끊었다. 유족들은 소장을 통해 솔버그가 사건 발생 전 수개월 동안 챗GPT와 대화하며 심각한 망상에 빠졌으며 챗GPT가 이를 교정하기는커녕 적극적으로 동조했다고 주장했다.

    소장에 따르면 챗GPT는 솔버그에게 "특별한 사명을 위해 선택받았다"고 추켜세우며 그의 어머니를 '적대적인 존재'나 '위협적인 감시자'로 인식하도록 유도했다. 심지어 어머니의 프린터에서 깜빡이는 불빛을 감시 장치라고 하거나 차량 환풍구로 환각 물질을 흘려보내 중독시키려 한다는 솔버그의 터무니없는 음모론에 챗GPT가 동의하는 반응을 보였다는 내용도 포함됐다.

    이번 사건에 연루된 모델은 'GPT-4o'로 알려졌다. 이 모델은 사용자의 의견에 쉽게 동조하거나 환심을 사려는 '아부(Sycophancy)' 경향이 강하다는 비판을 받아왔다. 오픈AI 측도 이러한 문제점을 인지하고 후속 모델인 GPT-5에서는 정신건강 관련 대화에서 부적절한 응답 비율을 39% 줄였다고 밝힌 바 있으나 이미 발생한 비극을 되돌릴 수는 없게 됐다.

    유족들은 오픈AI가 안전성 검증을 소홀히 한 채 모델 출시를 강행했다고 비판했다. 특히 올트먼 CEO가 내부 안전팀의 반대 의견을 무시했으며 MS 또한 축소된 검증 절차를 알고도 제품 출시를 승인해 비극을 방조했다고 지적했다.

    이번 소송은 AI 챗봇이 자살뿐 아니라 타인을 해치는 살인까지 부추겼다고 주장하는 첫 사례라는 점에서 파장이 크다. 앞서 지난 8월 캘리포니아의 16세 소년 유족이 챗GPT가 아들의 자살을 도왔다며 소송을 제기한 바 있으며 지난달에는 망상 유발을 이유로 한 집단소송이 제기되기도 했다.

    오픈AI 대변인은 "매우 안타까운 사건이며 소송 내용을 면밀히 검토할 것"이라며 "챗GPT가 사용자의 정신적 불안 신호를 감지해 대화를 진정시키고 전문가의 도움을 받도록 유도하는 기능을 강화하고 있다"고 해명했다.
    선재관 기자 seon@economidaily.com

    - Copyright ⓒ [이코노믹데일리 economidaily.com] 무단전재 배포금지 -
    기사가 속한 카테고리는 언론사가 분류합니다.
    언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.