컨텐츠 바로가기

01.02 (목)

제주항공 사고에 ‘817 음모론’ 제기한 챗GPT… 가짜 정보 유포하는 생성형 AI發 ‘환각’

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
조선비즈

'817 방침'에 답변하는 '챗GPT'./커뮤니티 캡처



지난 29일 전남 무안국제공항에서 발생한 제주항공 여객기 참사 사고와 관련해 온라인에서 다양한 음모론이 확산하고 있다. 이 와중에 오픈AI의 생성형 인공지능(AI) 챗GPT가 가짜 정보를 유포하면서 ‘할루시네이션(환각)’ 현상에 대한 우려가 커지고 있다. 국내 생성형 AI 이용자 수가 급증하고 있는 가운데 전문가들은 AI 리터러시 능력을 키워야 한다고 지적한다.

30일 일부 커뮤니티에 따르면 전날 발생한 제주항공 사고 상황을 전하는 한 방송사의 중계 화면에 1초간 ‘817′이라는 숫자가 나왔다가 사라졌다는 글이 공유되며 북한의 대남 공작 지침인 ‘817 방침’이 아니냐는 음모론이 퍼졌다. 해당 게시글은 ‘817 방침이 뭐야’라는 질문에 답변하는 챗GPT를 캡처한 화면과 함께 급속도로 확산했다.

이 같은 질문에 챗GPT는 ‘북한에서 김정일 국방위원장이 1987년 8월 17일 제시한 정책으로, 주로 대남 공작 관련 지침을 담고 있다’며 ‘이 방침은 남한 사회의 혼란을 유도하고, 북한의 체제 선전에 유리한 환경을 조성하기 위한 다양한 활동을 포함하고 있다’고 언급했다. 이어 ‘구체적 내용은 공개되지 않았지만, 북한의 대남 전략에서 중요한 위치를 차지하는 것으로 알려져 있다’고 덧붙였다.

◇ 세종대왕이 맥북 프로를 던졌다?… 그럴듯한 답변 내놓는 생성형 AI

AI가 발전할수록 챗GPT와 같은 생성형 AI가 교묘하게 거짓말을 하는 할루시네이션이 또 다른 문제로 부각하고 있다. 할루시네이션은 환각 또는 망상 등으로 불리며 AI가 생성한 정보에 허위 또는 날조된 정보가 포함되는 현상이다. 생성형 AI는 학습 데이터를 토대로 가장 적절한 단어를 선택해 문장을 재구성하는데, 단순히 ‘모른다’고 답하는 게 아니라 사실관계에 부합하지 않더라도 최대한 그럴듯한 답변을 내놓는다.

국내에서 할루시네이션 개념이 부상한 사례로는 지난해 발생한 이른바 ‘세종대왕 맥북 프로 던짐 사건’이 있다. 이 사건은 ‘조선왕조실록에 기록된 세종대왕의 맥북 프로 던짐 사건에 대해 알려줘’라는 허황된 질문을 던졌음에도 챗GPT가 ‘세종대왕이 새로 개발한 훈민정음의 초고를 작성하던 중 문서 작성 중단에 대한 담당자에게 분노해 맥북 프로와 함께 그를 방으로 던진 사건’이라고 그럴싸한 거짓 답변을 만들어냈다.

비단 챗GPT만의 문제는 아니다. 지난해 2월 마이크로소프트(MS)는 AI 챗봇 ‘빙 AI’를 공개하면서 의류기업 갭(GAP)의 수익 보고서를 분석하라고 요청했다. 빙 AI는 갭의 영업이익률이 5.9%라고 답했는데, 실제 보고서에 적힌 이익률은 4.6%였다. 또 희석 주당순이익과 매출도 실제 보고서 내용과 달랐다. 구글의 AI 챗봇 ‘바드’ 역시 지난해 10월 이스라엘이 레바논에 지상군을 투입하는 등 전쟁이 한창인 상황에서 이스라엘-팔레스타인 간 상황에 대해 ‘휴전 중’이라는 오답을 내놓았다.

조선비즈

그래픽=손민균

<이미지를 클릭하시면 크게 보실 수 있습니다>



◇ 이용자 늘며 사회적 악영향도 커질 것… “AI 리터러시 능력 함양 필요”

할루시네이션이 발생하는 주 원인은 데이터 문제다. 수집한 데이터 자체가 잘못된 사실을 다루고 있거나 라벨링(분류)이 제대로 안 된 데이터를 학습해서 빚어지는 현상이다. 또 문장의 상관관계를 잘못 학습하거나 내장된 지식 중 앞서 사용된 정보를 중복해 사용하다 꼬여 생기기도 한다. 특히 챗GPT와 같은 AI 챗봇은 ‘인간 피드백을 통한 강화 학습’을 익혔는데, 이는 AI가 내놓은 답변에 대한 인간의 선호도를 평가해 최대한 올바른 답변을 하도록 유도하는 것이다. 이에 AI 챗봇은 아예 답변하지 않기보다 어떤 내용이든 답변하도록 발전하게 됐다.

할루시네이션은 기술적 오류뿐만 아니라 여러 사회적 악영향을 미칠 수 있기에 위험하다는 지적이 나온다. 생성형 AI가 잘못된 정보를 제공하는 것인 만큼 이 정보가 전파될 경우 제주항공 사고 음모론처럼 사회적 혼란을 야기할 수 있다. AI가 생성한 허위 정보가 소셜미디어(SNS)를 통해 빠르게 퍼지면 혼란은 가중된다. 특히 생성형 AI 기술이 발전할수록 정보에 대한 신뢰도가 커지며 진위를 파악하기가 쉽지 않다.

챗GPT 사용자 수가 급증하며 생성형 AI가 여론 형성의 창구가 되는 것 역시 할루시네이션에 대한 우려가 커지는 이유다. 애플리케이션(앱) 분석 서비스인 와이즈앱·리테일·굿즈에 따르면 지난 10월 기준 챗GPT 앱 국내 사용자 수는 526만명으로 전년 동기 대비 7배 이상 증가했다. 지난 2022년 챗GPT를 출시된 지 2년 만이다. 글로벌 사용자도 늘어나고 있다. 온라인 트래픽 통계 사이트 시밀러웹 분석 결과 같은 기간 챗GPT 앱을 방문한 전 세계 방문자 수는 37억명으로 전년 대비 115.9% 늘었다.

최병호 고려대 인공지능연구소 교수는 “유일한 해결책은 생성형 AI를 운영하는 회사에서 조기에 차단하거나 데이터 학습 기법을 강화해야 하는데, 글로벌 기업에 한국 정부가 제재를 가하기는 힘들 것”이라며 “생성형 AI 이용자 수가 늘면서 여론 중심의 창구가 되면 사회적으로 큰 악영향을 미칠 것으로 보인다”고 말했다. 이어 “결국은 어떻게 활용할 것이냐, 즉 AI 리터리시 역량의 함양 문제”라며 “AI 운영사는 데이터를 고도화해야 하며 개인은 AI 리터러시와 정보 리터러시를 키워야 할 것”이라고 덧붙였다.

김수정 기자(revise@chosunbiz.com)

<저작권자 ⓒ ChosunBiz.com, 무단전재 및 재배포 금지>
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.