유발 하라리 내한 기자간담회 "韓 쿠데타 놀랍지 않아"
"AI, 인류가 통제할 수 없는 최초의 기술이 될 수 있어"
AI 시대, 정보의 신뢰성과 언론의 역할에 대해서도 주문
"AI에 대한 두려움…미래를 결정하는 것은 인간의 선택"
20일 서울 종로구 노무현시민센터에서 열린 신간 '넥서스' 출간 기자간담회에 유발 하라리 작가가 인사말을 하고 있다. 김영사 제공 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
"한국에서 쿠데타가 발생했다고 들었을 때, 북한에서 일어난 일인 줄 알았습니다."
이스라엘 출신 역사학자이자 글로벌 베스트셀러 '사피엔스', '호모데우스', '넥서스'의 저자인 유발 하라리 교수가 한국을 찾아 최근의 정치적 상황과 AI 시대의 위기에 대한 견해를 밝혔다.
유발 하라리 교수는 20일 서울 종로구 원서동 노무현시민센터에서 열린 '넥서스' 출간 기자간담회에서 한국의 '12.3 내란 사태'에 대한 질문을 받고 "처음에 한국에서 쿠데타가 발생했다고 들었을 때, '진작에 일어날 일이 발생했구나'라고 생각했다"면서 "친구에게 '북한에서?'라고 물었더니 '남한'이라는 답이 돌아왔다. 그래도 놀라지는 않았다"고 말했다.
"독재자가 되려는 지도자들은 첫 번째로 언론을 장악하고, 그다음으로 독립된 사법부를 파괴합니다. 이 두 가지를 손에 넣으면 (민주주의를 상징하는) 선거는 형식적인 절차로 변질될 위험이 크죠."
그는 한국을 비롯한 세계 각국에서 민주주의가 위협 받고 있는 상황을 언급하며 "언론의 자유와 독립된 사법부가 없다면 선거는 조작될 수 있다"며 "러시아와 북한도 선거제도를 갖추고 있지만, 그것이 민주주의를 보장하지 않는 이유가 여기에 있다"고 강조했다.
유발 하라리 작가가 20일 서울 종로구 노무현시민센터에서 열린 신간 '넥서스' 출간 기자간담회에서 대담 질문에 답하고 있다. 김영사 제공 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
그는 AI가 기존의 기술과 다른 점을 자율적인 사고 능력이라고 강조하면서 "우리는 석기 시대부터 무기와 도구를 만들어왔지만, 인간이 어떻게 사용할지 결정할 수 있었다"며 "그러나 AI는 다르다. AI는 스스로 무기를 개발하고, 새로운 형태의 전쟁을 설계할 수도 있다"고 지적했다.
하라리 교수는 '왜 이렇게 위험한 기술의 개발이 멈추지 않는가'에 대해 경쟁과 불신이 AI 개발을 가속화하고 있다고 분석했다.
AI 기업과 국가 지도자들은 AI가 위험하다는 사실을 알고 있지만, 경쟁에서 뒤처질 것을 우려해 개발을 멈추지 않는다는 것이다. 그는 "인간은 같은 인간을 믿지 못하지만, 외계인 같은 AI는 믿는 '신뢰의 역설'이 여기서 발생한다"며 인간 간 신뢰가 AI 시대의 가장 중요한 요소가 될 것이라고 강조했다.
유발 하라리 작가가 20일 서울 종로구 노무현시민센터에서 열린 신간 '넥서스' 출간 기자간담회에서 대담 질문에 답하고 있다. 김영사 제공 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
하라리 교수는 AI가 방대한 양의 정보를 생성하는 시대에 전통 언론(레거시 미디어)의 게이트키핑 역할이 더욱 중요해졌다고 지적했다.
"AI는 빠르고 정확하게 정보를 생산할 수 있습니다. 하지만 그 정보가 진실을 보장하는 것은 아닙니다. 값싸고 망상으로 뒤덮인, 쓰레기(junk) 같은 정보들이 넘쳐나게 될 겁니다."
그는 정보 시장이 100%, 완전히 개방될 경우 "단순하고 자극적인 가짜 뉴스들이 범람하며 '진실이라는 드문 보석'이 쓰레기 정보 속에 묻힐 것"이라고 경고했다.
정치, 역사, 과학적 사실을 검증하는 과정에는 많은 시간과 비용이 필요하기 때문에 진실 추구에는 비용이 많이 들고, 현실은 본래 복잡하기 때문에 이를 있는 그대로 전달하는 과정이 어려워 복잡성이 크다고 했다. 또, 사람들은 듣고 싶은 이야기만 듣고 싶어하기에 불편함을 수반한다고 했다. 반면, 허구는 저비용으로 단순하고 직관적으로, 원하는 대로 꾸밀 수 있어 쉽게 노출될 수 있다고 지적했다.
그는 "사회가 진실을 지키기 위해 투자하지 않는다면, 우리는 결국 AI가 만들어낸 가짜 정보에 둘러싸이게 될 것"이라며 "AI 언론이 아닌 진실을 추구하는 '언론인'에 대한 투자가 필요하다"고 강조했다.
하라리 교수는 AI가 정치적 극단주의를 강화할 수 있다고 경고했다.
그는 이를 방지하기 위해 AI가 생성한 콘텐츠가 인간이 만든 것인지 명확히 구분하는 법적 규제가 필요하다고 강조했다. 그러면서 "우리가 위조 화폐를 강력하게 단속하고 처벌하는 것처럼, AI가 인간인 것처럼 가장하는 것을 법적으로 강력하게 규제해야 한다"고 주장했다.
유발 하라리 작가가 20일 서울 종로구 노무현시민센터에서 열린 신간 '넥서스' 출간 기자간담회에서 대담 질문에 답하고 있다. 김영사 제공 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
하라리 교수는 "미래는 결정되지 않았다. 우리가 어떤 선택을 하느냐에 따라 달라질 것"이라며, AI 시대를 대비한 책임 있는 행동을 촉구했다. 지나친 낙관주의는 안일함을, 지나친 비관주의는 책임 회피를 초래할 수 있다고 경고했다.
이어 "AI 시대에도 인간 간 신뢰 회복과 민주주의를 위한 시스템 구축이 필수적"이라며 "AI가 우리의 미래를 결정짓는 것이 아니라, 우리가 AI를 어떻게 다루느냐가 우리의 운명을 좌우할 것"이라고 강조했다.
한편, 8~12세 어린이를 위한 역사책 시리즈 '멈출 수 없는 우리'의 마지막 4권을 집필 중인 하라리 교수는 미래 세대를 위한 교육에도 관심을 드러냈다.
※CBS노컷뉴스는 여러분의 제보로 함께 세상을 바꿉니다. 각종 비리와 부당대우, 사건사고와 미담 등 모든 얘깃거리를 알려주세요.
- 이메일 : jebo@cbs.co.kr
- 카카오톡 : @노컷뉴스
- 사이트 : https://url.kr/b71afn
저작권자 © CBS 노컷뉴스 무단전재 및 재배포 금지
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.