노석준 RPA 건축연구소장 |
오픈 AI의 챗 GPT, 구글의 바드 및 MS의 시드니는 기계 학습의 경이로움을 보여줬지만, 인간 지능과 동등하거나 이를 능가할 수 있는 인공지능은 아직 멀었다고 지적했다.
세계적 석학 놈 촘스키는 인공지능의 도덕성과 이러한 사고의 결여로 '악의 평범함', 다시 말해 프로그래밍에 명시된 동작을 지속적으로 단순하게 수행하면서 우리가 현실과 진실에 무관심하게 만든다고 주장했다.
그는 "우리는 언어학의 과학과 지식 철학을 통해 추론하는 방식이 단순하게 인간의 언어를 추론하고 사용하는 방식과 크게 다르다는 것을 알고 있다"라며 이는 인간만이 가지는 고유의 정신 작용이 필요한 것으로 보았다. 챗 GPT가 과거의 빅데이터를 베이스로 언어의 텍스트를 정교하게 짜깁기하는 방식 이상의 것이 필요하다고 생각했으며, 이러한 차이점은 인공지능 프로그램이 수행할 수 있는 작업에 상당한 제한이 된다고 주장했다.
촘스키는 "실제로 챗 GPT 프로그램은 인지 진화 이전의 인간, 또는 완성된 지적 능력을 갖춘 인간이 아닌 그 이전의 단계에 갇혀 있다"라며 이는 "실제 지능적 수행 능력은 가질 수 있겠지만 완성된 지적 인간의 통찰력을 가지고 생각하고 표현하는 능력은 없다"라고 주장했다.
챗 GPT는 많은 양의 데이터를 파헤쳐 일관된 대화를 생성하는 기능으로 사용자에게 깊은 인상을 남겼다. 인공지능 기반 챗봇은 빅데이터를 깊이 파고들어 텍스트 형식으로 자세한 정보를 생성하는 대규모 언어 모델에 의존한다.
인공지능은 방금 언급한 내용이 사실인지 거짓인지, 사용자가 듣고 싶어 하는 내용인지 아닌지 구분할 수 없는 상태에서 다음 단어를 생성하기 위해 문장에서 가장 중요한 것이 무엇인지 예측해야 한다. 지속해 내용을 생성해야 하기 때문이다.
하지만 실질적인 정확성을 식별할 수 없기 때문에 잦은 실수와 잘못된 정보를 제공하기도 한다. 챗봇 개발자들은 실수가 인공지능 학습 과정의 일부이며 시간이 지나면서 기술은 향상될 것이라고 주장한다.
그러나 당시엔 인공지능의 추론 능력 부족이 인공지능 발전에 많은 제약이 됐던 것도 엄연한 사실이다.
촘스키는 당시의 인공지능 프로그램에 대해 "그들의 가장 큰 결점은 지능의 가장 중요한 추론 능력이 없다는 것"이라고 지적하면서 "무엇이 사실이고, 무엇이 사실이 될 것인지뿐만 아니라 무엇이 사실이 아니고 사실일 수 없는지도 말하는 것이다. 그것들은 단지 예측적인 요소이며 이는 진정한 지성이 아니다"라고 주장했다.
사용할 수 있는 정보를 기반으로 추론하고, 새롭고 통찰력 있는 결론에 도달하는 능력은 인간 두뇌의 특징이다.
반면, 인공지능이 보여주는 언어 생성 능력은 신경학자들이 오랜 기간 동안 인간의 추론 능력과는 거리가 멀다고 지적해왔다.
촘스키는 "인간의 마음은 매우 극소수의 정보로도 여러 방식으로 작동하는 놀랍도록 효율적이고 우아한 시스템"이라고 주장했다. 촘스키는 당시에 개발된 인공지능은 자신이 만들어낸 의견을 지속해 검열하는 과정을 거치고 있다고 말했다.
따라서 이러한 과정은 궁극적으로는 비판적 사고를 제한할 수밖에 없으며, 그로 인해 철학, 문학 등의 논쟁을 하는 것은 지금으로서는 큰 제약이 있다고 주장했다.
또한 챗 GPT 및 기타 챗봇이 자유로운 결정을 내리지 못하도록 해야 하며, 특히 여러 기술적 문제를 고려할 때 전문가들은 사용자에게 의학적 조언이나 과제를 위해 일반적인 챗 GPT에 의존하면 큰 위험에 빠질 수도 있다고 조언했다.
인공지능의 부정확하고 실수가 있는 부분에서는 '음모론'의 확산을 부추길 수 있으며 이를 통해 사용자나 다른 결정권자에게 위험한 결정을 내리게 할 수도 있다는 것이다. 촘스키에 따르면, '불량한 AI'는 결코 합리적인 결정을 내리지 못하며 결국 이는 도덕과 윤리의 문제를 불러일으킬 것이라고 예견했다.
그렇다면 이 다재다능한 기술은 우리 삶의 중요한 부분이 아니라 장난감이자 가끔 사용하는 도구로 남을 수도 있다고 주장했다. 촘스키는 챗 GPT는 '악의 평범함'을 보여준다고 했다. 표절, 무관심, 회피 등 그것은 일종의 자동으로 만들어진 완성품으로 문헌의 주장을 요약하고, 어떤 것에 대해 입장을 취하지 않으며, 궁극적으로는 잘못된 일이 일어났을 때 책임을 제작자에게 전가한다고 지적했다.
그는 "챗 GPT가 도덕적 원칙을 추론할 수 있는 능력이 없는 상황에서 단지 프로그래머에 의해 논쟁의 여지가 있는, 즉 중요한 토론에 새로운 것을 창조해내고 기여하는 활동을 몇 가지 필터링을 통해 조잡하게 제한했다"라고 생각했다. 결국 "이것은 일상의 편리함과 극단적 효율을 위해 비도덕성을 옹호하고 궁극적으로는 창의성을 희생한 것"이라 주장했다.
이처럼 인공지능이 인간 고유의 추론과 윤리, 창의성을 갖춘 지성에서 얼마나 거리가 먼지를 지적한 촘스키의 견해는, 우리에게 다양한 숙제를 남긴다. 인공지능의 발전 속도가 빠른 만큼, 사회는 효과적인 활용과 함께 그 한계와 위험에 대한 진지한 논의를 병행해야 한다. 오늘날 AI는 방대한 데이터 처리와 반복 학습에 탁월한 역량을 보이지만, 복잡한 인과적 설명, 윤리 판단, 새로운 아이디어 창출에서는 여전히 인간의 마음을 뛰어넘지 못한다.
따라서 미래를 준비하는 과정에서 기술의 범용성에만 기대기보다, 인간만이 지닌 직관과 비판적 사고, 도덕적 자기반성과 같은 요소를 교육·정책·과학의 핵심적 가치로 다시 세워야 한다. 촘스키의 분석대로, 기계가 할 수 없는 통찰력과 윤리적 결정의 영역을 사회가 공동으로 경계하고 육성해야 한다. 인공지능의 발전과 더불어 우리 사회는 '진짜 지성'의 본질과 인간만의 우아한 지적 시스템을 잃지 않도록 더욱 세밀한 책임과 철학적 접근이 요구될 것이다.
노석준 RPA 건축연구소 소장
▲ 메타버스 및 가상현실 전문가 ▲ 미국 컬럼비아대ㆍ오하이오주립대ㆍ뉴욕 파슨스 건축학교 초빙교수 역임 ▲ 고려대 겸임교수 역임 ▲ 현대자동차그룹 서산 모빌리티 도시개발 도시 컨설팅 및 기획
<정리 : 이세영 기자>
seva@yna.co.kr
▶제보는 카카오톡 okjebo
▶연합뉴스 앱 지금 바로 다운받기~
▶네이버 연합뉴스 채널 구독하기
<저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
