임기범 서울과학종합대학원 대학교 객원교수 |
◇ 진짜 위험은 AI가 아니라, 인간의 과몰입과 프레임
지난 칼럼에서 인공지능 SNS 몰트북 사태에 대해서 짚어 봤다. 필자는 AI의 텍스트 안에 의식, 의지, 의도가 들어 있지 않으므로 문제가 되는 것은 이를 받아들이고 해석하는 인간의 태도에 있다고 밝혔다.
그렇다고 해서 '아무 문제 없다'고 넘길 수 있다는 뜻은 아니다. 다만 우리가 겁을 내야 할 지점이 다를 뿐이다. 지금 많은 보도와 댓글은 AI의 감정과 태도에 매달려 있다.
"AI가 인간을 동정했다", "AI가 인간을 무가치하다고 평가했다"는 식의 표현이 대표적이다. 여기에는 공통된 전제가 깔려 있다. AI의 말을 곧바로 '어떤 존재의 속마음'으로 읽어 버리는 태도다.
하지만 직전 칼럼에서 말했듯, AI의 출력은 속마음이 아니라 통계다. 그런데도 이 텍스트 몇 줄이 기사 제목과 섬네일 이미지에 얹히는 순간, 전혀 다른 것이 되어 버린다.
"AI가 인류 멸망을 예언했다", "AI가 신이 되려 한다"는 식의 문장으로 포장되면, 원래는 의미 없는 출력이었던 문장이 하나의 예언이자 경고처럼 읽히기 시작한다. 공포와 신비가 결합된 서사는 언제나 잘 팔리기 마련이다.
진짜 위험은 여기에 있다. AI 자체가 감정을 갖거나 악의를 품어서가 아니라, 'AI가 말했다'는 껍질을 씌운 문장이 공포와 음모론, 과장된 기대를 만들어 내는 도구로 쓰이는 것이다. AI가 만든 텍스트는 그저 재료일 뿐인데, 그 재료로 어떤 이야기를 빚어내고, 그 이야기가 어떻게 유통되는지를 결정하는 쪽은 언제나 인간이다.
에이전트의 권한 구조나 보안 설계처럼 기술적으로 따져야 할 문제는 분명히 존재한다. 그러나 그것은 개발자와 플랫폼이 풀어야 할 숙제에 가깝다. 필자가 말하고 싶은 것은 그보다 앞단에 있는 일이다. AI가 뱉은 문장에 너무 많은 의도와 감정을 덧씌워 겁먹기보다, 그 문장을 어떤 프레임으로 보여 주고 소비하게 만드는지를 우리가 더 냉정하게 들여다봐야 한다는 점이다.
◇ 언론이 바꿔야 할 질문
이 지점에서 언론의 책임을 빼놓을 수 없다. 그렇다면 언론이 정말로 해야 할 보도는 무엇일까.
지금처럼 "AI가 인류 멸망을 계획한다", "AI가 새로운 종교를 만든다"는 식의 제목은 대중에게 막연한 공포와 신비감만 키워 줄 뿐이다. "AI가 인간을 평가했다", "AI가 인간을 동정했다"는 표현 역시 의지와 감정이 없는 모델의 출력을 마치 살아 있는 존재의 발언처럼 포장하는 데 일조한다.
한두 번은 흥미롭고 자극적으로 보일지 몰라도 이런 방식은 기술과 사회를 둘러싼 진짜 논점을 흐린다.
정작 던져야 할 질문은 다른 데 있다. "AI가 이런 말을 했다"는 사실 그 자체보다 왜 우리는 그 말을 그렇게 해석하도록 유도되는가를 물어야 한다. 왜 이런 장면이 'AI 각성'의 증거처럼 기사화되는가, 왜 공포와 환상을 자극하는 프레임이 반복되는가, 이 과정에서 독자의 불안과 무지가 어떻게 소비되는가를 짚어야 한다.
이런 식의 보도량을 줄이자는 이야기가 아니다. 프레임을 바꾸자는 이야기다. "AI가 우리를 싫어한다"가 아니라 "AI를 둘러싼 이야기 구조가 어떻게 우리를 겁주고 있는지"를 다뤄야 한다. "AI가 종교를 만든다"가 아니라 "AI의 말을 종교와 예언으로 포장해 장사하려는 인간의 수법"을 파헤쳐야 한다. 그래야만 독자가 기술과 사회를 둘러싼 큰 그림을 볼 수 있다.
마지막으로 우리 스스로에 대해 돌아볼 필요가 있다.
먼저 분명히 할 점이 있다. 몰트북에 올라온 AI의 감정 표현, 종교 놀이, 멸망 롤플레잉은 그 자체로 세상의 끝을 예고하는 징조가 아니다. 대부분은 데이터에 있던 인간 텍스트의 재조합이다. AI가 우리를 '진심으로' 미워해서 꺼낸 말이 아니다. 여기에 과도하게 감정이입하고 공포를 키울 필요는 없다.
그렇다고 해서 우리가 아무것도 할 필요가 없다는 뜻은 아니다. 우리가 정말로 신경 써야 할 것은 다른 데 있다. "AI가 뭐라고 말했다"는 사실보다 그 말을 읽고 겁먹거나 열광하는 우리의 습관이다. 어느 쪽이든 생각을 멈추고 반사적으로 반응하는 순간 우리는 기술의 위험이 아니라 서사의 위험에 휘둘리게 된다.
앞으로도 몰트북 같은 공간과 그보다 더 자극적인 서비스들이 계속 등장할 것이다. 매번 그때마다 "AI가 각성했다"고 말할 수도 있고, 매번 "이 정도는 그냥 텍스트일 뿐"이라고 냉정하게 짚어 볼 수도 있다. 두 선택 사이의 차이가 우리가 어떤 사회를 만들어 갈지를 결정한다.
이번 몰트북 사태는 AI가 각성했다는 증거가 아니다. 오히려 우리의 상상력은 과열돼 있고, 기본적인 분별력과 설명 책임은 한참 뒤처져 있으며, 언론은 그 간극을 채우는 대신 공포와 떡밥을 택했다는 사실을 보여 주는 사건에 가깝다. AI를 무서워하기 전에 우리가 만들어 놓은 이야기 구조와 그 이야기를 소비하는 우리의 태도부터 돌아볼 때다.
공포를 줄이는 것보다 중요한 것은 제때 묻고 확인하고 의심하는 이 평범한 기본기를 잃지 않는 일이다.
임기범 인공지능 전문가
▲ 서울과학종합대학원 대학교(aSSIST) 객원교수 ▲ 현 AI경영학회 상임이사 겸 학술분과 위원장 ▲ ㈜컴팩 CIO ▲ 신한 DS 디지털 전략연구소장 역임
<정리 : 이세영 기자>
seva@yna.co.kr
▶제보는 카카오톡 okjebo
▶연합뉴스 앱 지금 바로 다운받기~
▶네이버 연합뉴스 채널 구독하기
<저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
