컨텐츠 바로가기

11.28 (목)

이슈 스마트폰 소식

갤럭시S24 히든 카드 될 '메모리 고속도로' [테크토크]

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

갤럭시S24, LLW D램 탑재 예정

메모리 대역폭(속도) 확대한 D램

지연 줄여 AI 추론 작업에 이상적

내년 1분기 출시 예정인 삼성전자의 플래그십 스마트폰 갤럭시 S24에는 일명 '저지연 와이드 입출구(Low Latency Wide I/O·LLW I/O) D램이라는 새로운 메모리가 탑재될 전망입니다.

이 기술은 몇 달 전 애플이 가상현실(VR) 기기 '비전 프로'에 도입할 예정이라고 밝혀 업계의 주목을 받은 바 있는데요. 스마트폰에 탑재되는 건 삼성전자의 갤S24가 최초이며, 갤S24의 인공지능(AI) 추론 성능을 극대화할 잠재력이 있습니다.

메모리 속도 높이는 고속도로
아시아경제

사진은 기사 중 특정 표현과 관련 없음

<이미지를 클릭하시면 크게 보실 수 있습니다>


모든 컴퓨터 칩에는 입출력 장치, 즉 I/O가 있습니다. 칩에 붙어 있는 작은 핀 형태인데, 이 핀을 통해 반도체의 데이터가 전송됩니다. I/O는 데이터의 고속도로라고 비유할 수 있겠지요. LLW D램이란 바로 I/O 핀의 개수를 대폭 늘려 D램의 메모리 전송 속도를 높인 메모리 장치라 할 수 있습니다.

앞서 언급한 애플의 비전 프로에는 SK하이닉스의 LLW D램이 들어갑니다. 이 D램의 I/O 핀 개수는 512개로, 기존 D램(64개) 대비 8배 높습니다. 그만큼 메모리의 데이터 전송 속도를 뜻하는 대역폭도 넓어졌다는 뜻입니다.

계층 구조의 한계를 돌파하라
D램의 대역폭이 커지면 어떤 이득이 있을까요? 이를 이해하려면 이른바 '메모리 계층 구조'를 먼저 알아야 합니다. 흔히 국내 반도체 산업은 메모리에 강하다고 알려져 있는데, 메모리에도 다양한 장치가 있습니다. 하드디스크(HDD·SSD), D램, 캐시(L1·L2·SRAM), 레지스터 등입니다.

아시아경제

메모리의 계층도


계층 구조를 세부적으로 파고들면 너무 복잡해지므로 최대한 간략하게 표현하면, 다음과 같은 피라미드 구조로 나타낼 수 있습니다. 밑으로 내려갈수록 속도(즉 대역폭)는 느리되 메모리 용량은 큽니다. 위로 올라갈수록 속도는 빠르되 용량은 적습니다. 특히 캐시는 CPU 안에 탑재된 메모리이기 때문에 가장 속도가 빠릅니다.

이제 왜 D램이 메모리 중에서도 주력 제품인지 이해가 될 겁니다. D램은 속도도 중간, 용량도 중간입니다. 가격도 제법 저렴합니다. 따라서 CPU 옆에 붙여 메모리 성능을 강화할 때 매우 용이합니다.

아시아경제

가상현실(VR) 기기는 인간의 눈동자 움직임을 따라가는 영상을 구현하는 게 중요하다. 애플의 비전 프로는 SK하이닉스의 LLW D램을 탑재해 지연 문제를 최소화했다. [이미지출처=애플]

<이미지를 클릭하시면 크게 보실 수 있습니다>


문제는 계층 구조상 어중간한 D램의 속도입니다. CPU가 연산 작업을 할 때 D램에 저장된 데이터를 가져오는 과정에서 필연적으로 지연 현상(Latency)이 발생하고, 이는 성능 저하로 이어집니다. 빠른 영상 처리가 생명인 VR 기기, 막대한 매개변수 데이터를 처리해야 하는 AI 업무에선 치명적인 단점입니다.

서버 기기에선 지연 현상을 해결하기 위해 D램을 여러 개 쌓고 그 중앙에 관통 전극을 낸 'HBM'이라는 특수 메모리를 씁니다. 하지만 스마트폰이나 VR 기기처럼 작은 전자기기에 HBM을 욱여넣을 수는 없겠지요. 그래서 나온 대체재가 LLW D램입니다. 물론 LLW D램이 캐시만큼 빨라질 일은 없겠지만, 적어도 기존 제품 대비 지연을 최소화하기엔 딱 알맞습니다.

AI를 위한 D램
아시아경제

삼성이 공개한 차세대 스마트폰 칩 아키텍처. [이미지출처=삼성전자 '엑스(X)']

<이미지를 클릭하시면 크게 보실 수 있습니다>


지난달 30일(현지시간) 삼성은 공식 사회관계망서비스(SNS)에 LLW D램을 탑재한 새로운 SoC(시스템 온 칩) 구조를 선보였습니다. 이미지를 보면, 프로세서 바로 옆에 D램과 LLW가 연결된 모습을 볼 수 있습니다. LLW는 CPU와 함께 작동하고, 더 많은 메모리가 필요한 작업을 할 때는 나머지 D램 용량까지 빌려오는 방식입니다.

이런 구조는 스마트폰에서 AI 추론 작업을 할 때 매우 이상적입니다. 특히 챗GPT를 비롯한 생성 AI의 경우, 높은 메모리 대역폭이 필수입니다. 이 때문에 엔비디아 GPU도 AI용 데이터센터를 구축할 때 HBM을 이용하는 겁니다. LLW D램은 스마트폰 산업계의 HBM 대체재로 자리매김할 잠재력이 있습니다.

앞서 삼성은 지난달 8일 국내에서 진행한 '삼성 AI 포럼 2023'에서 자체 생성 AI 모델인 '가우스'를 공개한 바 있습니다. 가우스는 언어, 코드, 이미지를 생성하는 총 3개 모델로 구성돼 있으며, 해당 기능은 삼성의 클라우드와 스마트폰 내 온 디바이스로 처리될 예정입니다.

이번에 삼성이 공개한 새로운 D램이 잘만 작동한다면, 내년 출시될 갤럭시 S24는 말 그대로 삼성 AI의 첨병이 될 수 있습니다.



임주형 기자 skepped@asiae.co.kr
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.