컨텐츠 바로가기

07.01 (월)

이슈 인공지능 시대가 열린다

AI가 불지핀 메모리 시장, 이번에는 CXL로 ‘들썩’···대체 뭐길래?

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
경향신문

CXL 개념도. SK하이닉스 제공

<이미지를 클릭하시면 크게 보실 수 있습니다>


글로벌 생성형 인공지능(AI) 투자가 급증하면서 막대한 분량의 AI 작업을 수행할 메모리 장치의 중요성도 날로 높아지고 있다. 데이터 처리속도를 향상시킨 고대역폭메모리(HBM)에 이어, D램의 확장성을 무기로 삼은 ‘컴퓨트익스프레스링크(CXL)’가 최근 메모리 업계의 새로운 먹거리로 떠오르고 있다.

HBM는 SK하이닉스가 주도하는 데 비해 CXL 분야에선 삼성전자가 다소 앞서 있다. 이런 가운데 SK하이닉스도 1월 세계 최대 가전·정보기술(IT)전시회 ‘CES 2024’에서 차세대 CXL 전시를 준비하는 등 속도를 내고 있다.

SK하이닉스는 오는 9일부터 미국 라스베이거스에서 열리는 HBM3E 등 주력 AI 메모리 제품을 전시할 예정이라고 3일 밝혔다.

아울러 SK하이닉스는 ‘SK ICT(정보통신기술) 패밀리 데모룸’을 마련해 차세대 CXL 메모리를 선보이겠다는 계획이다. CXL 기반 연산 기능을 통합한 메모리 솔루션 시제품도 공개한다.

CXL은 중앙처리장치(CPU)와 메모리, 그래픽처리장치(GPU), 저장장치 등을 보다 효율적으로 활용할 수 있게 해 주는 인터페이스를 일컫는다. 다수의 메모리 반도체를 연결해 거대한 공용 메모리 풀(pool)을 형성하는 기술로, 서버 구조를 바꾸지 않고도 메모리 용량을 늘릴 수 있다. 이론상 서버에 필요한 D램을 거의 무한대로 확장할 수 있다.

경향신문

SK하이닉스 CES 2024 전시 제품 (왼쪽부터 시계 방향으로) ▲HBM3E ▲CXL Memory ▲CMS ▲AiMX

<이미지를 클릭하시면 크게 보실 수 있습니다>


때문에 CXL은 방대한 데이터 처리를 필요로 하는 AI 컴퓨팅에 적합한 기술로 최근 각광받고 있다. 연산에 필요한 메모리 성능을 획기적으로 높여준다는 점에서, 마찬가지로 AI용 칩에 많이 탑재되는 HBM과도 비슷하다.

다만 그 방식은 차이가 있다. HBM이 여러 개의 D램을 연결해 연산 속도를 끌어올린 ‘제품’이라면, CXL은 메모리 용량을 유연하게 확장하는 ‘기술’이다. HBM이 큰 빌딩이라면, CXL은 공유오피스에 비유할 만하다.

HBM에서는 SK하이닉스가 선도 역할이지만 CXL에서만큼은 삼성전자가 앞서 있다. 삼성전자는 지난해 12월에 업계 최초로 기업용 리눅스 1위 기업 레드햇과 CXL 메모리 동작 검증에 성공했다. 2021년 CXL 기반 D램 기술을 최초로 개발한 데 이어, 작년 5월엔 CXL 2.0을 지원하는 128GB D램을 개발했다.

SK하이닉스도 추격의 고삐를 죄고 있다. SK하이닉스는 이날 “DDR5 기반 96기가바이트(GB), 128GB CXL 2.0 메모리 솔루션 제품을 올 하반기 상용화해 AI 고객들에게 공급할 예정”이라고 밝혔다.

현재 CXL 기반 메모리는 인텔 CPU 4세대 일부 제품에 탑재돼 있긴 하지만, 확장 능력이 한정적인 ‘1.1 규격’을 지원하기 때문에 장점을 제대로 못 살리고 있다는 평가를 받는다. 인텔은 상반기 중 확장성을 대폭 늘린 CXL 2.0 규격에 맞는 첫 CPU 5세대 제온 프로세서를 출시할 예정이다. 인텔 CPU가 CXL 2.0 규격을 지원하기 시작하면 CXL 시장도 본격 개화할 것이라는 전망이 나온다.

김상범 기자 ksb1231@kyunghyang.com

▶ 플랫, ‘입주자 프로젝트’ <엄마 성 빛내기> 시작!!
▶ 뉴스 남들보다 깊게 보려면? 점선면을 구독하세요

©경향신문(www.khan.co.kr), 무단전재 및 재배포 금지

기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.