컨텐츠 바로가기

“2030년 인간 뇌 넘어선다” 국내외 빅테크 모두 꽂힌 ‘초거대 AI’

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
조선비즈

배경훈 LG AI 연구원장이 지난 2월 22일 유튜브로 진행된 '엑스퍼트 인공지능(AI) 얼라이언스' 창립 행사에서 글로벌 초거대 AI 생태계에 관해 설명하고 있다. LG그룹의 AI 전담 조직인 LG AI연구원은 이날 국내·외 13개 기업이 모인 엑스퍼트 AI 얼라이언스를 발족시켰다고 밝혔다. /LG

<이미지를 클릭하시면 크게 보실 수 있습니다>



네이버, 카카오 양대 인터넷 기업부터 KT, SK텔레콤 등 통신사까지 내로라하는 국내 주요 기술 기업이 저마다 강점을 내세운 2세대 인공지능(AI)을 잇따라 내놓고 있다. 이 기업들의 최종 목표는 인간의 뇌처럼 복잡하고 창의적인 사고를 할 수 있는 AI, 이른바 ‘초거대 AI’다. 시장조사업체 IDC에 따르면 초거대 AI를 포함한 전 세계 AI 시장 규모는 2024년 5543억달러(약 700조4689억원)에 이를 전망이다.

25일 정보통신(IT) 업계에 따르면 국내에선 LG그룹이 초거대 AI 시장에서 선두를 달리고 있다. LG는 지난해 3000억개 파라미터(매개변수) 규모의 멀티모달 ‘엑사원’을 공개했다. 파라미터가 많을수록 AI는 더 정교한 학습을 할 수 있다. 멀티모달은 텍스트와 음성, 이미지, 영상을 동시에 이해하는 AI 모델이다.

엑사원은 텍스트를 입력하면 이에 맞는 이미지를 만들고, 해당 이미지를 텍스트로 설명해준다. 컴퓨터가 읽을 수 있는 형태로 만들어진 언어 자료인 ‘말뭉치’ 6000억개, 고해상도 이미지 2억5000만장 이상을 학습했다. LG는 앞으로 의료, 교육, 교통, 법률 등 다양한 산업 분야와 힘을 합쳐 ‘초거대 AI 생태계’ 조성을 구상하고 있다. 올해 2월에는 뉴욕 패션위크에서 엑사원을 입힌 아티스트 ‘틸다’와 함께 틸다가 박윤희 디자이너와 협업해 디자인한 새로운 의상을 공개했다.

네이버는 올해 3월 세계 최대 AI 개발자 컨퍼런스 ‘엔비디아 GTC 2022′에 참가해 총 2040억개의 파라미터(매개변수)로 구성된 언어 모델 하이퍼클로바를 소개했다. 하이퍼클로바는 23년 치의 네이버 뉴스와 19년 치의 네이버 블로그를 학습했다. 당시 정석근 네이버 클로바 CIC 대표는 네이버쇼핑의 기획전 자동 생성 AI인 클로바MD를 예로 들며 “사용자의 최근 관심사를 분석해 기획전에 포함될 상품 선택과 마케팅 문구 생성을 자동으로 수행한다”고 설명했다.

네이버는 그로부터 한 달만인 4월 AI 스피커에 하이퍼클로바를 적용한 ‘똑똑사전’ 기능을 추가했다. 똑똑사전은 꼬리에 꼬리를 무는 연속적인 대화가 특징이다. “지구에서 가장 큰 공룡은 뭐야?”라고 질문한 뒤 이어서 “그럼 코끼리보다 얼마나 커?”라고 물어도 대답할 수 있다. 사용자가 몇 초간 응답이 없으면 “코끼리보다 작은 공룡을 알려드릴까요?”라며 질문을 하기도 한다. 다만 아직 공룡과 우주, 반려동물 등 3가지 주제로만 대화할 수 있다.

조선비즈

RQ-트랜스포머에 "사막에 있는 에펠탑 그려줘"라는 명령어를 입력하면 생성되는 이미지. /카카오브레인

<이미지를 클릭하시면 크게 보실 수 있습니다>



카카오는 지난달 이미지 생성 모델 민달리의 상향 버전인 RQ-트랜스포머를 오픈소스 커뮤니티 깃허브에 공개했다. 민달리는 미국 AI 연구소 오픈AI가 만든 달리를 작은 규모로 재현한 것으로, 1400만장의 텍스트와 이미지를 학습했다. 멀티모달 기능을 갖춰 텍스트를 기반으로 질문을 하면 사용자가 찾는 답을 이미지 형태로 제시한다. “바나나 껍질로 된 의자를 그려줘”라는 명령어를 입력하면 AI가 이를 이해하고 직접 이미지를 그리는 식이다. 단, LG의 엑사원처럼 만든 이미지를 텍스트로 설명하는 것은 불가능하다.

RQ-트랜스포머는 민달리보다 크기는 3배, 이미지 생성 속도는 2배 더 빠르다. 3000만쌍의 텍스트와 이미지를 학습했고, 민달리보다 25억개 더 많은 39억개 파라미터로 구성됐다. 카카오 측은 “RQ-트랜스포머는 민달리와 달리 독자 기술로 개발해 의미가 남다르다”며 “이미지 압축으로 인한 손실이 적어 높은 품질의 이미지를 저해상도의 코드맵으로 표현하는 것이 특징이다”라고 설명했다. 카카오는 관련 기술을 고도화해 삽화 또는 교육 자료 제작 등에 활용할 방침이다.

카카오는 이 밖에도 언어 모델 코지피티를 보유 중이다. 코지피티는 한국어를 사전적·문맥적으로 이해하고 이용자가 원하는 결괏값을 보여준다. 카카오는 최근 코지피티의 파라미터를 60억개에서 300억개로 5배 늘렸다.

이달 들어서는 KT와 SK텔레콤이 도전장을 내밀었다. KT는 지난 19일 개발 중인 AI 기술을 공개하고 “공감 능력을 갖춘 최초의 AI를 만들겠다”는 포부를 밝혔다. SK텔레콤은 지난 16일 AI를 시각화한 애플리케이션(앱) 에이닷의 베타 서비스를 선보였다. 에이닷은 오픈AI가 개발하고 마이크로소프트(MS)가 독점권을 소유한 언어 모델 GPT-3(1750억개 파라미터)를 바탕으로 SK텔레콤이 개발했다. 사용자에게 먼저 말을 건네는 것이 특징이다.

조선비즈

모델이 SK텔레콤의 에이닷을 시현하는 모습. SK텔레콤은 이달 16일 에이닷의 안드로이드 버전을 원스토어와 구글플레이스토어에 공개하고 오픈 베타 서비스를 시작한다고 밝혔다. /SK텔레콤

<이미지를 클릭하시면 크게 보실 수 있습니다>



해외에서는 파라미터 수가 조(兆)를 넘는 언어 모델 개발이 한창이다. 중국 베이징인공지능연구원(BAAI)은 지난해 6월 1조7500억개의 파라미터를 갖춘 딥러닝(심층 기계학습) 모델 우다오2.0으로 가상인간 ‘화즈빙’을 구현했다. 화즈빙은 중국 전통 문체로 시를 지을 수 있으며, 그림을 그리거나 작곡도 가능한 것으로 알려졌다. 같은 해 1월에는 구글 연구진이 논문을 발표하고 1조6000억개의 파라미터로 구성된 스위치트랜스포머를 소개했다. 이 모델은 아직 소스코드 형태로만 존재한다.

구글은 언어 모델 람다도 개선 중이다. 람다는 앞서 ‘구글 I/O’ 개발자 행사에서 처음 시연됐을 당시 자신을 명왕성으로 간주하는 대화에서 ‘널 찾아가면 뭘 볼 수 있느냐’는 질문에 “큰 협곡, 얼어붙은 빙산, 간헐천, 분화구 몇 개를 볼 수 있다”고 답해 화제를 모았다. 구글 측은 올해 2월 “람다가 가진 최대 1370억개 파라미터를 최적화하고, 람다가 별다른 근거 없이 학습한 내용을 사실인 것처럼 떠들지 않게 권위 있는 정보 출처를 이용할 수 있게 만들었다”고 했다.

MS와 엔비디아는 지난해 10월 파라미터 5300억개 규모로 문서 요약, 자동 대화 생성, 번역, 의미 검색, 코드 자동완성 등을 수행할 수 있는 언어 모델 MT-NLG를 공개했다. 알파고를 개발한 딥마인드는 같은 해 12월 2800억개 파라미터의 언어 모델 고퍼를 선보였다.

일각에서는 현재 속도대로라면 조만간 AI의 성능이 인간의 뇌를 넘어설 것이란 관측이 나온다. 실제로 오픈AI는 2030년까지 파라미터가 100조개 이상인 GPT-4를 만들겠다고 공언한 상태다. 인간 뇌의 시냅스는 100조개 수준이다. 국내 IT 업계 관계자는 “많은 기업이 초거대 AI가 궁극적으로 삶의 모든 영역에 적용될 것으로 보고 개발에 사활을 걸고 있다”고 말했다.

박수현 기자(htinmaking@chosunbiz.com)

<저작권자 ⓒ ChosunBiz.com, 무단전재 및 재배포 금지>
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.