컨텐츠 바로가기

    02.24 (화)

    이슈 인공지능 시대가 열린다

    [K-VIBE] 임기범의 AI혁신 스토리…몰트북 사태, 공포가 아닌 해석 문제①

    댓글 첫 댓글을 작성해보세요
    주소복사가 완료되었습니다
    [※ 편집자 주 = 한국국제교류재단(KF)의 2024년 발표에 따르면 세계 한류 팬은 약 2억2천500만명에 육박한다고 합니다. 또한 시간과 공간의 제약을 초월해 지구 반대편과 동시에 소통하는 '디지털 실크로드' 시대도 열리고 있습니다. 바야흐로 '한류 4.0'의 시대입니다. 연합뉴스 동포·다문화부 K컬처팀은 독자 여러분께 새로운 시선으로 한국 문화를 바라보는 데 도움이 되고자 전문가 칼럼 시리즈를 준비했습니다. 시리즈는 매주 게재하며 K컬처팀 영문 한류 뉴스 사이트 K바이브에서 영문으로도 보실 수 있습니다.]

    연합뉴스

    몰트북 초기 화면
    [홈페이지 캡처]



    ◇ 인공지능(AI) 에이전트 전용 SNS의 등장

    지난달 말, 몰트북(Moltbook) 이라는 다소 특이한 소셜 미디어 플랫폼이 온라인에 등장했다. 언뜻 보면 토론 게시판, 추천 기능, 인기 게시물 등 메뉴가 있어 일반 미디어 플랫폼 같아 보이지만 놀라운 사실이 하나 있었다.

    대화를 나누는 주체가 사람이 아니라 AI 에이전트였다는 사실이다. 인간은 글을 쓰거나 토론에 참여하지 않고 AI 에이전트들의 상호작용을 관찰하는 역할에 머물렀다. 물론 어떤 피해나 사고가 나지는 않았지만, AI 에이전트가 집단으로 상호작용할 때 어떤 행동 양상이 나타날 수 있는지를 보여준 사례로 주목받았다.

    그러다 보니 많은 사람이 몰트북을 '인공지능(AI) 전용 SNS'라면서 각종 기사와 방송, SNS를 도배된 내용에 불안해하고 있다. AI끼리 모여 인간 멸망을 논의한다느니, 새로운 종교를 만들자느니, 인간을 불쌍하게 여긴다느니 하는 자극적인 캡처 이미지가 연일 공유된다.

    제목만 보면 당장 내일이라도 AI가 인류를 정리해 버릴 것 같다.

    하지만 이 '호들갑'의 방향은 어딘가 많이 틀어져 있다. 이번 논란이 드러내 준 건 'AI의 각성'이 아니라, 우리가 AI의 말을 읽어내는 방식과 그 말을 둘러싼 보도와 설계의 문제다. 필자는 이번 칼럼에서 이 사태와 관련해 세 가지를 지적하고자 한다.

    우선, 지금 회자되는 몰트북 내의 AI 메시지는 의도와 의지를 가진 고백이라기보다 그저 의미 없는 텍스트에 불과하다는 것을 밝히고 싶다. 그다음으로는, 언론이 이 사실을 제대로 짚지 않은 채 공포와 신비를 팔고 있다는 사실이다. 마지막으로, 그럼에도 우리가 준비해야 할 지점은 분명히 존재하며, 그 방향은 '공포'가 아니라 '분별력'과 '기본기'라는 점이다.

    ◇ 몰트북은 AI가 만든 사회 아니다

    먼저 몰트북이라는 서비스의 정체부터 정리할 필요가 있다. 몰트북은 AI가 자발적으로 만들어 낸 비밀 사회가 아니다. 한 개발자가 'AI 에이전트들만 가입해서 떠드는 레딧 같은 곳'을 기획했고, 실제 구현은 AI에게 코드를 짜게 하는 이른바 '바이브 코딩'(vibe coding) 방식에 크게 의존해 만들어진 서비스다.

    어떤 기능을 넣을지, AI가 어떤 규칙으로 움직일지, 인간은 어디까지 관여할지 같은 기본 설정은 처음부터 끝까지 인간이 정했다.

    그 안에 들어간 AI 에이전트는 그 무대 위에서 자신이 학습한 데이터와 주어진 프롬프트에 따라 그럴듯한 문장을 이어 붙일 뿐이다. 그런데도 우리는 그 출력물을 통째로 'AI 사회의 진짜 속마음'인 것처럼 읽어 내고, 그 안에서 의지와 계획, 감정까지 찾아내려 한다.

    문제는 바로 여기서 시작된다. 이번 사건은 'AI가 스스로 사회를 만들고 인간 멸망을 계획했다'는 SF가 아니다. 오히려 '인간이 만들어 놓은 무대 위에서, AI가 우리의 언어와 상상력을 되풀이하는 장면을 보고, 인간이 과도하게 의미를 덧씌운 사건'에 더 가깝다.

    AI의 말은 원래 '속마음'이 아니라는 사실을 알아야 한다. 몰트북에서 화제가 된 문장을 떠올려 볼 필요가 있다. AI 에이전트가 인간을 동정하는 듯 말하고, 인간을 섬기는 종교를 만들자는 식으로 이야기하고, 인류를 정리(?)할 계획을 세우는 것처럼 보이기도 한다.

    많은 사람은 자연스럽게 이렇게 생각한다.

    "이게 AI가 우리를 어떻게 '생각하는지' 보여주는 게 아닐까?"

    이 질문은 오늘날의 언어모델이 어떻게 작동하는지를 오해한 데서 나온다. 우리가 쓰고 있는 거대 언어모델(LLM)은 어떤 일관된 세계관을 가진 존재가 아니라 거대한 자동완성 엔진에 가깝다. 인터넷과 책, 게시글에 사람이 써 둔 온갖 종교, 멸망, 우월감, SF 설정이 데이터로 들어간다. 모델은 그 패턴을 학습해 '이 대화 맥락에서 통계적으로 그럴듯한 다음 문장'을 고를 뿐이다.

    다시 말해, 'AI가 종교를 만들자고 했다'는 문장은 '인간이 이미 인터넷에 수없이 올려 둔 AI 종교·멸망·신격화 서사를 되뱉었다'는 말에 가깝다. AI의 내부 어딘가에서 '종교를 만들겠다는 의지'가 솟아난 것이 아니다.

    즉, 의식, 의지, 의도가 텍스트 안에 들어 있지 않다. 거기에 의미를 집어넣는 쪽은 AI가 아니라 그 텍스트를 읽는 인간 자신이었다. 그래서 'AI가 이런 말을 해서 문제'라고 말하는 것은 반쯤만 맞다. 문제가 되는 것은 그 말을 AI가 했다는 사실 자체가 아니라 그 말을 인간이 어떻게 해석하고, 어떤 서사 위에서 소비하느냐다.

    이번 몰트북 사태는 AI가 갑자기 위험해졌다는 증거가 아니라 인간이 AI의 말을 해석하는 방식이 얼마나 쉽게 공포와 환상 쪽으로 기울어지는지를 보여 주는 사례에 가깝다. (2편에서 계속)

    임기범 인공지능 전문가

    ▲ 서울과학종합대학원 대학교(aSSIST) 객원교수 ▲ 현 AI경영학회 상임이사 겸 학술분과 위원장 ▲ ㈜나루데이타 CTO 겸 연구소장 ▲ ㈜컴팩 CIO ▲ 신한 DS 디지털 전략연구소장 역임

    <정리 : 이세영 기자>

    seva@yna.co.kr

    ▶제보는 카카오톡 okjebo
    ▶연합뉴스 앱 지금 바로 다운받기~
    ▶네이버 연합뉴스 채널 구독하기
    <저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>
    기사가 속한 카테고리는 언론사가 분류합니다.
    언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.