컨텐츠 바로가기

11.06 (수)

이슈 인공지능 시대가 열린다

삼성전자·네이버, 엔비디아보다 전력 효율 8배 좋은 AI반도체 내놓는다

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

추론에 특화된 AI반도체…로봇·자율주행에 적합

양산까지 1년3개월여 소요 예상

뉴스1

이종호 과학기술정보통신부 장관(왼쪽)이 19일 양재 더케이호텔에서 열린 ‘2023 인공지능반도체 미래기술 컨퍼런스’에서 네이버·삼성전자 부스를 찾아 김유원 네이버클라우드 대표에게 AI반도체 관련 설명을 듣고 있다. (과학기술정보통신부 제공)

<이미지를 클릭하시면 크게 보실 수 있습니다>


(서울=뉴스1) 손엄지 기자 = 삼성전자(005930)와 네이버(035420)가 지난 1년간 함께 개발한 인공지능(AI) 반도체가 공개됐다. 엔비디아 등 경쟁기업의 반도체보다 디램(DRAM) 크기도 크고 전력 효율은 8배가량 뛰어나다. 국내 데이터센터의 반도체를 국산으로 바꾸는 것은 물론 국내 AI반도체가 해외에 수출하는 성과도 기대된다.

과학기술정보통신부는 19일 양재 더케이호텔에서 제4차 '인공지능 반도체 최고위 전략대화'를 열고 국내 AI 반도체 기업들의 성과를 전했다.

이날 삼성전자와 네이버가 개발 중인 AI 반도체가 프로그래머블반도체(FPGA) 형태로 공개됐다. FPGA는 개발자가 설계를 변경할 수 있는 반도체로, 양산 전 시제품 제작에 주로 활용된다.

해당 반도체는 AI 모델이 '학습'을 끝내고 새로운 데이터로 논리적 결과물을 내놓는 '추론'에 특화돼 있다. 지금은 학습을 위한 반도체 수요가 높은 상황이지만 AI 시장이 고도화되면 결국 추론에 특화된 반도체 수요가 급증할 것으로 업계는 보고 있다.

삼성전자와 네이버가 만든 AI 반도체는 엔비디아 등 경쟁 제품보다 8배 높은 전력 효율을 갖춘 게 특징이다. 전력 효율이 높을수록 더 적은 전력으로 동일한 연산 성능을 낼 수 있다. 즉, 하이퍼클로바 같은 거대언어모델(LLM)을 한 번 구동할 때 드는 비용이 줄어드는 것이다.

현재 가장 저렴하면서도 전력 효율이 좋은 AI 반도체를 만드는 곳은 엔비디아다. 이제 삼성전자와 네이버의 AI 반도체가 양산을 시작하면 엔비디아의 시장도 가져올 수 있다는 기대가 나온다. 디램 크기도 128GB로 현존하는 AI 반도체 중 가장 크다.

또 고대역폭메모리(HBM)가 아닌 저전력더블데이터레이트(LPDDR)를 택했다는 점에서 가격 경쟁력은 물론 대량 양산도 가능하다. 더이상 반도체 쇼티지(재고부족)를 걱정하지 않아도 된다. LPDDR은 저전력, 소형 D램이다.

이동수 네이버클라우드 이사는 "LLM 시장이 폭발적으로 성장하면서 메모리가 적게는 1000만개, 많게는 2000만개 넘게 필요한데, HBM은 기껏해야 한 달에 20만~30만개 만든다"면서 "LLM이 일상에 들어가면 어떤 반도체보다도 많은 수량을 써야하는데 LPDDR은 대량 양산이 가능하다"고 설명했다.

AI 반도체의 연구·개발은 거의 마무리 단계에 진입했지만 양산까지는 1년여의 시간이 더 소요될 것으로 보인다. 네이버클라우드는 상황에 따라 더 짧아질 수도, 길어질 수도 있다고 말했다.

해당 AI 반도체는 우선 네이버 데이터센터에 들어가 하이퍼클로바X 구동에 쓰일 전망이다. 전력 소모가 적고 추론에 특화된 만큼 향후 로봇, 자율주행 등에도 이용할 수 있다. 해외 수출도 기대되는 부분이다.

이 이사는 "처음에는 데이터센터에서 이용하겠지만 네이버랩스를 비롯해 많은 시장을 개척해 보려고 한다"고 말했다.

eom@news1.kr

Copyright ⓒ 뉴스1. All rights reserved. 무단 전재 및 재배포, AI학습 이용 금지.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.