컨텐츠 바로가기

09.14 (토)

SK하이닉스 “AI 시대 LLM 데이터 처리량 급증… CXL 메모리 기술로 지원”

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
조선비즈

박경 SK하이닉스 메모리시스템솔루션 담당(부사장)은 지난해 9월 21일 서울 중구 웨스틴 조선호텔에서 진행된 ‘스마트클라우드쇼 2023′에서 'AI 시대를 위한 메모리 기술의 미래'를 주제로 AI 시대 메모리 반도체가 당면한 과제와 SK하이닉스의 고대역폭메모리(HBM), CXL 기반 메모리 등을 소개했다./조선비즈

<이미지를 클릭하시면 크게 보실 수 있습니다>



SK하이닉스가 인공지능(AI) 시대 급증하는 메모리 수요에 대응할 기술로 컴퓨트 익스프레스 링크(CXL)에 집중하고 있다고 27일 밝혔다.

이날 박경 SK하이닉스 시스템아키텍처 담당 부사장은 서울 강남구 한국고등교육재단빌딩에서 열린 최종현학술원 과학혁신 특별강연에서 “현재 AI 메모리는 곧 그래픽처리장치(GPU)인데, HBM 메모리가 그렇게 크지 않아 항상 ‘메모리 헝그리(hungry)’ 할 수밖에 없다”고 했다.

그러면서 박 부사장은 “‘메모리 헝그리’한 XPU에 저희가 가진 CXL 메모리를 붙여서 해결할 수는 없을까 고민하게 됐고, CXL 메모리를 AI 쪽으로 튜닝하는 작업을 열심히 하고 있다”고 덧붙였다.

SK하이닉스는 올해 하반기 상용화를 목표로 DDR5 기반 96GB·128GB CXL 2.0 메모리 설루션 제품을 개발 중이다.

CXL은 고성능 컴퓨팅 시스템에서 중앙처리장치(CPU), GPU, 메모리 등을 효율적으로 연결하는 인터커넥트 기술이다. 기존 메모리 모듈에 CXL을 이용하면 용량을 두 배 이상으로 확장할 수 있다. 이에 CXL은 HBM과 함께 대용량·고대역폭 메모리가 필요한 기술이란 평가를 받는다.

박 부사장은 CPU가 시스템 성능을 주도한 기존 시스템과 달리 AI 시스템은 메모리가 시스템 성능을 주도할 것이라고 했다. 박 부사장은 “과거 D램은 CPU에 붙어 CPU가 하는 일을 도와주는 메모리였는데, AI 거대언어모델(LLM)은 메모리가 칩 옆에 가까이 붙어 최대한 데이터를 많이 ‘펌핑’해줘야 한다”고 설명했다.

그러면서 그는 “이런 형태로 시스템 구조가 바뀌고, 반도체부터 애플리케이션까지 한꺼번에 바뀌어야 문제가 해결된다”고 했다.

전병수 기자(outstanding@chosunbiz.com)

<저작권자 ⓒ ChosunBiz.com, 무단전재 및 재배포 금지>
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.