데이터 크기 맞춰 작동 방식 판단
언어 생성 속도 0.4초로 매우 빨라
스마트폰 등 AI 활용도 높아질 듯
과학기술정보통신부는 6일 유회준 카이스트 전기 및 전자공학부 교수가 이끄는 연구진이 처리 속도는 유지하면서도 전기 소모량은 크게 줄인 AI 탑재용 반도체를 개발했다고 밝혔다. 연구진은 이 반도체에 ‘상보형-트랜스포머’라는 이름을 붙였다. 연구 결과는 지난달 19~23일 미국 샌프란시스코에서 열린 국제고체회로설계학회(ISSCC)에서 발표·시연됐다.
연구진은 이번에 개발한 AI 반도체 전력 소모량이 현재 LLM 작동에 사용되는 그래픽처리장치(GPU)인 엔비디아 A100 대비 625분의 1에 불과하다고 밝혔다. LLM의 일종인 GPT-2를 작동시켰더니 언어 생성 속도도 0.4초로 매우 빨라 사용에 불편함이 없었다.
연구진이 이런 초저전력 기술을 만들 수 있었던 것은 AI를 돌리는 기술 두 가지의 특징에 집중했기 때문이다.
AI 작동 기술 중 하나는 ‘스파이킹 뉴럴 네트워크(SNN)’이다. SNN은 실시간 정보 처리에 유리하다. 하지만 복잡한 정보를 처리하는 능력은 약하다. 또 다른 기술은 ‘심층 인공 신경망(DNN)’이다. DNN은 이미지 인식과 비디오 정보 분석 같은 고난도 정보 처리가 가능하다.
연구진은 정보를 담은 데이터 크기가 작으면 SNN이 DNN보다 전기를 더 적게 쓴다는 점을 알아냈다. 반대로 데이터가 클 경우 DNN이 SNN보다 전기를 덜 썼다. 연구진은 데이터 크기를 평가해 SNN으로 넘길지, DNN으로 넘길지를 재빨리 판단하는 작동 체계를 고안했다. 크기가 작아 가볍게 처리할 수 있는 데이터는 SNN에, 크기가 커 복잡한 분석을 해야 하는 데이터는 DNN으로 분배했다. 전기를 최대한 덜 쓰면서도 데이터를 효과적으로 처리할 수 있게 한 것이다. 연구진은 이번 반도체를 삼성전자 28나노 공정을 통해 제작했다고 밝혔다.
연구진은 이번 기술이 스마트폰 등 전자기기에 들어가는 ‘온디바이스 AI’ 사용을 확대하는 계기가 될 것으로 기대했다. AI 사용에 따른 배터리 소모량을 줄일 수 있어서다.
이정호 기자 run@kyunghyang.com
▶ 매일 라이브 경향티비, 재밌고 효과빠른 시사 소화제!
▶ 진보? 보수? 당신의 정치성향을 테스트해 보세요!
©경향신문(www.khan.co.kr), 무단전재 및 재배포 금지
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.