컨텐츠 바로가기

04.27 (토)

카이스트 연구진, 스스로 그림 그리는 AI 반도체 칩 개발

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

유회준 교수팀 개발…GAN 저전력·효율 처리

GANPU, 생성형 AI 기술 모바일 구현 성공

[이데일리 한광범 기자] 카이스트(KAIST)는 전기및전자공학부 유회준 교수 연구팀이 생성적 적대 신경망(GAN)을 저전력·효율적으로 처리하는 인공지능(AI) 반도체를 개발했다고 6일 밝혔다.

유회준 교수 연구팀이 개발한 AI 반도체는 다중-심층 신경망을 처리할 수 있고 이를 저전력의 모바일 기기에서도 학습할 수 있다. 이번 반도체 칩 개발을 통해 이미지 합성, 스타일 변환, 손상 이미지 복원 등의 생성형 AI 기술을 모바일 기기에서 구현하는 데 성공했다.

이데일리

유회준 카이스트 전기및전자공학부 교수. (사진=카이스트)

<이미지를 클릭하시면 크게 보실 수 있습니다>


강상훈 박사과정이 1 저자로 참여한 이번 연구결과는 지난 2월17일 3000여 명 반도체 연구자들이 미국 샌프란시스코에 모여 개최한 국제고체회로설계학회(ISSCC)에서 발표됐다. (논문명 : GANPU: A 135TFLOPS/W Multi-DNN Training Processor for GANs with Speculative Dual-Sparsity Exploitation)

◇모바일 기기서 다양하게 사용 가능…산업계도 주목

기존에 많이 연구된 AI 기술인 분류형 모델(Discriminative Model)은 주어진 질문에 답을 하도록 학습된 AI 모델로 물체 인식 및 추적·음성인식·얼굴인식 등에 활용된다. 반면 생성적 적대 신경망(GAN)은 새로운 이미지를 생성·재생성할 수 있어, 이미지 스타일 변환, 영상 합성, 손상된 이미지 복원 등 광범위한 분야에 활용된다. 모바일 기기의 다양한 응용 프로그램(영상·이미지 내 사용자의 얼굴 합성)에도 사용돼 학계뿐만 아니라 산업계에서도 주목을 받고 있다.

그러나 생성적 적대 신경망은 기존의 딥러닝 네트워크와는 달리 여러 개의 심층 신경망으로 이루어진 구조로, 개별 심층 신경망마다 다른 요구 조건으로 최적화된 가속을 하는 것이 어렵다. 또 고해상도 이미지를 생성하기 위해 기존 심층 신경망 모델보다 수십 배 많은 연산량을 요구한다. 즉, 적대적 생성 신경망은 연산 능력이 제한적이고 사용되는 메모리가 작은 모바일 장치(스마트폰, 태블릿 등)에서는 소프트웨어만으로 구현할 수 없었다. 최근 모바일 기기에서 AI를 구현하기 위해 다양한 가속기 개발이 이뤄지고 있지만, 기존 연구들은 추론 단계만 지원하거나 단일-심층 신경망 학습에 한정돼 있다.

이데일리

GANPU 칩을 활용해 헤어스타일을 자연스럽게 변형하는 모습. (사진=카이스트)

<이미지를 클릭하시면 크게 보실 수 있습니다>


유회준 교수 연구팀은 단일-심층 신경망뿐만 아니라 생성적 적대 신경망과 같은 다중-심층 신경망을 처리할 수 있으면서 모바일에서 학습도 가능한 AI 반도체 GANPU(Generative Adversarial Networks Processing Unit)를 개발해 모바일 장치의 AI 활용범위를 넓혔다. 앞서 GANPU의 초기 연구는 삼성전자가 주최하는 과학기술 분야 논문대회 휴먼테크논문대상에서 발표돼 서킷 디자인(Circuit Design) 부문 금상을 수상한 바 있다.

이번에 개발된 AI 반도체는 서버로 데이터를 보내지 않고 모바일 장치 내에서 생성적 적대 신경망(GAN)을 스스로 학습할 수 있어 사생활 보호를 가능하게 하는 프로세서라는 점에서 활용도가 기대되고 있다. 모바일 기기에서 저전력으로 다중-심층 신경망을 가속하기 위해서 다양한 핵심 기술이 필요하다.

◇‘심층 신경망 학습 반도체’ 대비 4.8배 에너지효율

연구팀이 개발한 GANPU에 사용된 핵심 기술 중 대표적인 기술 3가지는 △적응형 워크로드 할당(ASTM, 처리해야 할 워크로드를 파악해 칩 상의 다중-심층 신경망의 연산 및 메모리 특성에 맞춰 시간·공간으로 나누어 할당함으로써 효율적으로 가속하는 방법) △입출력 희소성 활용 극대화(IOAS, 인공신경망 입력 데이터에서 나타나는 0뿐만 아니라 출력의 0도 예측해 연산에서 제외함으로써 추론 및 학습 과정에서의 속도와 에너지효율 극대화) △지수부만을 사용한 0 패턴 추측(EORS, 인공신경망 출력의 0을 예측하기 위한 알고리즘으로 인공신경망 입력과 연결 강도(weight)의 부동소수점 데이터 중 지수 부분만을 사용해 연산을 간단히 수행하는 방법)이다.

이데일리

강상훈 연구원(왼쪽에서 네번째) 등 유회준 교수 연구팀. (사진=카이스트)

<이미지를 클릭하시면 크게 보실 수 있습니다>


이들 기술을 사용함으로써 연구팀의 GANPU는 기존 최고 성능을 보이던 심층 신경망 학습 반도체 대비 4.8배 증가한 에너지효율을 달성했다. 연구팀은 GANPU의 활용 예시로 태블릿 카메라로 찍은 사진을 사용자가 직접 수정할 수 있는 응용 기술을 시연했다. 사진 상의 얼굴에서 머리·안경·눈썹 등 17가지 특징에 대해 추가·삭제 및 수정사항을 입력하면 GANPU가 실시간으로 이를 자동으로 완성해 보여 주는 얼굴 수정 시스템을 개발했다.

유회준 교수는 “이번 연구는 하나의 칩에서 추론만이 아니라 학습까지 모두 가능해 여러 개의 딥러닝 네트워크를 동시에 지원하는 AI 반도체를 개발했다는 점에서 의미가 크다”며 “모바일 기기에서의 AI 활용 영역을 크게 넓혀 향후 이미지 스타일 변환, 영상 합성, 이미지 복원 등 GAN과 관련된 애플리케이션에 다양하게 응용될 것”이라고 기대감을 드러냈다.


기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.