컨텐츠 바로가기

12.17 (화)

[2024 결산/AI ①] 눈·귀·입 트인 AI, '초지능' 시대 앞당겨...부머vs두머 논쟁은 "아직"

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
[디지털데일리 이건한 기자] 2024년 인공지능(AI) 기술 트렌드를 상징하는 핵심 키워드는 바로 '멀티모달(Multimodal)'이었다. 멀티모달 AI는 텍스트는 기본이고, 이미지, 비디오, 오디오 데이터의 처리 및 생성까지 가능한 AI를 말한다. 사람과 비교하면 AI의 눈, 귀, 입이 모두 뜨인 것과 같다. 이는 작게 보면 자연스러운 AI 기술 진보지만, 넓게 보면 아직 사회적 대응 논의가 미흡한 초지능 AI 시대 도래를 한층 앞당긴 것이란 평가가 나온다.

디지털데일리

<이미지를 클릭하시면 크게 보실 수 있습니다>




AI 업계는 올해 멀티모달 기술 역량을 바탕으로 AI가 단순 질문에 대한 처리뿐만 아니라, 사용자를 대신해 특정 기능을 다각적으로 수행할 수 있는 AI 에이전트(Agent) 구현에 집중했다.

특히 지난 10월 프랑스의 AI 스타트업 앤트로픽이 공개한 '컴퓨터 유즈(Computer use)'는 AI가 사람처럼 PC의 마우스 커서를 스스로 이동하고, 버튼을 클릭하거나 텍스트 입력이 가능하다는 사실이 증명된 사례다. 뿐만 아니라 웹 화면이나 프로그램 동작에 대한 실시간 감지 및 대응, 온라인 예약 일정 변경 같은 복잡한 작업까지 처리하는 능력을 보여 놀라움을 자아냈다. 이는 AI가 단순히 정해진 작업대로 움직이는 규칙 기반 자동화 수준에서 나아가 주어진 상황에 대한 능동적 이해 및 대응이 가능해졌다는 점에서 큰 변화다. 게다가 공개된 컴퓨터 유즈는 아직 테스트 버전이다. 정식 버전에서는 더 복잡하고 다양한 일을 처리할 수 있을 것으로 예상되고 있다.

디지털데일리

<이미지를 클릭하시면 크게 보실 수 있습니다>




이에 질세라 오픈AI도 2025년 1월 코드명 '오퍼레이터(Operator)'란 이름의 자율형 AI 에이전트를 출시할 예정이다. 컴퓨터 유즈처럼 AI가 독립적으로 컴퓨터를 제어할 수 있는 것으로 알려져 있다. 이밖에 구글, 마이크로소프트 등 소위 'AI 빅테크'로 분류되면서 멀티모달 AI 개발 능력을 갖춘 회사들도 속속 이 같은 에이전트 개발 트렌드에서 주도권 선점을 위해 분투하는 중이다.

약점이 점차 사라지는 AI... 사람과 간극도 줄었다

무엇보다 이 같은 멀티모달 AI, 예상보다 수준 높은 AI 에이전트의 등장은 AI가 사람과 같은 수준에 이르는 AGI(인공일반지능)나 능가하는 '초지능(superintelligence)' 시대의 도래도 한층 앞당겨졌음을 의미한다. 이제 AI는 사람처럼 텍스트, 이미지, 비디오, 오디오 등 보다 다양한 데이터 처리가 가능해진 데다가, 방대한 데이터를 사람보다 훨씬 빠르게 학습하고 활용할 수 있는 AI 특유의 특징도 계속 유효하기 때문이다.

이에 한 AI 업계 기술 전문가는 "AGI나 초지능 달성의 기준이 무엇인가에 따라 다르겠지만, AI가 사람 수준의 업무 수행이 가능하고 지금보다 능동적이고 합리적인 문제 해결 능력을 보인다면 AGI의 최소 요건이 성립될 것"이라며 "그 바탕이 될 기술적 과제는 이미 하나씩 해결되고 있다. 남은 건 정밀한 구현과 최적화의 싸움"이라 말하기도 했다.

실제로 LLM 기반 AI의 약점은 빠른 속도로 보완되고 있다. 대표적으로 챗GPT가 처음 등장했을 때는 사전학습 모델로 2021년까지의 데이터만 학습돼 최신성에 약점을 보였다. 반면 지금은 이를 보완하는 RAG(검색증강생성) 기술이 보편화되면서 실시간 데이터 처리 능력에서도 사람과 AI, 기존 웹 검색 서비스 사이 간극이 줄어들고 있다.

AI가 폭력적이거나 비윤리적으로 작동하는 문제, 잘못된 답을 그럴듯하게 꾸며서 보여주는 환각 현상 등 대표적인 안전 및 신뢰성 문제도 마찬가지다. 선도기업들의 리스크 회피를 위한 안전 기술 투자와 각국 정부의 AI 안전연구소 및 사용자 보호 정책 등이 속속 마련되며 일반 사용자 단의 치명성은 점차 감소하는 추세다.

초지능 AI는 인류의 편일까? 4대 석학도 의견 갈려

그러나 초고성능의 AGI나 초지능 개발 허용, 우려에 대한 시점은 여전히 첨예한 대립 상태다. 글로벌 AI 4대 석학으로 꼽히는 제프리 힌튼(토론토대), 요수아 벤지오(몬트리올대), 얀 르쿤(뉴욕대), 앤드류 응(스탠퍼드대)만 하더라도 그렇다. 얀 르쿤, 앤드류 응 교수는 AI의 잠재적 위험성을 낮게 평가하고 기술 고도화를 적극 지지하는 AI 부머(boomer)에 속하며, 제프리 힌튼과 요수아 벤지오 교수는 AI의 위험성을 지금부터 통제하고 대비해야 한다는 'AI 두머(Doomer)'에 속한다.

디지털데일리



이 중 2024년은 두머 진영인 제프리 힌튼 교수와 존 홉필드 프린스턴대 교수가 노벨 물리학상을 공동 수상하고 '통제할 수 없는 AI 위협'에 대한 수상 소감을 남겨 위험성이 상대적 주목을 받았다. 그러나 해당 노벨상은 이념이 아닌 기술의 영역, 특히 딥러닝 개발의 공로를 인정받은 결과물이므로 그들의 의견이 무조건 옳다고 판단하긴 어렵다는 시각이 따른다.

종합하면 멀티모달 AI의 발전과 고성능 AI 에이전트의 등장이 AGI 혹은 초지능 AI 시대를 좀 더 가깝게했다는 점은 다수의 AI 전문가가 인정하는 점이다. 그러나 그것이 인류에게 위협이 될지, 아니면 보다 윤택한 미래를 가져올 지에 대한 논의와 선택은 2024년을 넘어 전세계 AI 업계와 국가, 소비자들의 몫으로 남았다.

또 다른 AI 업계 관계자는 "2025년에는 기능적으로나, 효용과 위험성의 측면에서나 훨씬 가시화된 AI 서비스가 대거 등장할 것"이라며 "아직 무엇이 옳다 단언하긴 어렵다. 다만 우리 모두가 AI의 잠재적 영향권 아래 있기 때문에 다 함께 관심을 갖고 지켜볼 문제"라고 말했다.

- Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지 -
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.