컨텐츠 바로가기

11.23 (토)

이슈 대한민국 연구 현장

국내 연구진, 전기 적게 먹고 똑똑한 ‘AI 반도체’ 개발

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

기존 GPU 대비 전력 소모량 625분의 1

‘온디바이스 AI’ 장시간 사용 기반

경향신문

지난달 미국 샌프란시스코에서 개최된 국제고체회로설계학회(ISSCC)에서 김상엽 카이스트 박사가 AI반도체에 관해 참가자에게 설명하고 있다. 카이스트 제공

<이미지를 클릭하시면 크게 보실 수 있습니다>


국내 연구진이 고성능을 발휘하면서도 전기는 매우 적게 사용하는 인공지능(AI) 반도체를 개발했다. 사람과 대화하고, 각종 정보를 찾아주는 GPT 같은 ‘거대언어모델(LLM) AI’를 배터리 소모 걱정 없이 스마트폰 등으로 장시간 사용할 기반이 마련될 것이라는 전망이 나온다.

과학기술정보통신부는 6일 유회준 카이스트(KAIST) 전기 및 전자공학부 교수가 이끄는 연구진이 정보 처리 속도는 유지하면서도 전기 소모량은 크게 줄인 AI 탑재용 반도체를 개발했다고 밝혔다.

연구진은 이 반도체에 ‘상보형-트랜스포머’라는 이름을 붙였다. 연구 결과는 지난달 19~23일 미국 샌프란시스코에서 개최된 국제고체회로설계학회(ISSCC)에서 발표·시연됐다.

연구진은 이번에 개발한 AI 반도체 전력 소모량이 현재 LLM 작동에 사용되는 그래픽처리장치(GPU)인 엔비디아 A100 대비 625분의 1에 불과하다고 밝혔다. 이번 AI 반도체로 LLM의 일종인 GPT-2를 작동시켰더니 언어 생성 속도도 0.4초로 매우 빨라 사용에 불편함이 없었다.

연구진이 이런 초저전력 기술을 만들 수 있었던 것은 AI를 돌리는 기술 두 가지의 특징에 집중했기 때문이다.

AI 작동 기술 중 하나는 ‘스파이킹 뉴럴 네트워크(SNN)’이다. SNN은 실시간 정보처리에 유리하다. 하지만 복잡한 정보를 처리하는 능력은 약하다. 또 다른 기술은 ‘심층 인공 신경망(DNN)’이다. DNN은 이미지 인식과 비디오 정보 분석 같은 고난도 정보처리가 가능하다.

연구진은 정보를 담은 데이터 크기가 작으면 SNN이 DNN보다 전기를 더 적게 쓴다는 점을 알아냈다. 반대로 데이터가 클 경우 DNN이 SNN보다 전기를 덜 썼다.

연구진은 데이터 크기를 평가해 SNN으로 넘길지, DNN으로 넘길지를 재빨리 판단하는 작동 체계를 고안했다. 크기가 작아 가볍게 처리할 수 있는 데이터는 SNN에, 크기가 커 복잡한 분석을 해야 하는 데이터는 DNN으로 분배했다. 전기를 최대한 덜 쓰면서도 데이터를 효과적으로 처리할 수 있게 한 것이다.

한마디로 탑재량은 적지만 연비가 좋은 1t 트럭(SNN)이면 가능할 적은 이삿짐을 옮기는데, 탑재량이 크고 연비도 상대적으로 낮은 5t 트럭(DNN)을 부르는 일을 지양하는 방법을 개발한 셈이다.

반대로 짐이 많다면 1t 트럭 여러 대보다는 5t 트럭 1대를 불러 한 번에 옮기는 것이 효율적이다. 이삿짐 트럭을 고르듯 AI 작동 방식도 선택한 것이다. 연구진은 이번 반도체를 삼성전자 28나노 공정을 통해 제작했다고 밝혔다.

연구진은 이번 기술이 스마트폰 등 전자기기 내에 들어가는 ‘온디바이스 AI’ 사용을 확대하는 계기가 될 것으로 기대했다. AI 사용에 따른 배터리 소모량을 줄일 수 있어서다.

논문의 제1저자인 김상엽 카이스트 전기 및 전자공학부 박사는 “현재 일부 최신 스마트폰에서는 AI를 사용해 실시간 번역 기능을 제공한다”며 “이번 연구 결과를 적용하면 이 같은 기능들을 더 장시간 쓸 수 있게 될 것”이라고 말했다.

이정호 기자 run@kyunghyang.com

▶ 매일 라이브 경향티비, 재밌고 효과빠른 시사 소화제!
▶ 진보? 보수? 당신의 정치성향을 테스트해 보세요!

©경향신문(www.khan.co.kr), 무단전재 및 재배포 금지

기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.