저비용 고용량 메모리 칩…학습서 추론으로 옮아가는 AI 산업 발맞춰
샌디스크와 손잡고 기술의 글로벌 표준화 전략 추진…제품화도 박차
고대역폭메모리(HBM)를 필두로 한 인공지능(AI) 메모리 반도체의 약진이 계속되는 가운데 차세대 AI 메모리 시장 선점을 향한 경쟁도 달아오르고 있다.
특히 D램 대신 낸드플래시 메모리를 이용한 ‘고대역폭플래시(HBF)’가 주목받고 있다. 에이전트 AI·피지컬 AI 시대의 핵심 과제인 AI 추론 역량 고도화를 위해선 HBM이 지닌 용량과 비용의 한계를 뛰어넘는 것이 필요하다는 판단 때문이다.
SK하이닉스는 26일 메모리 기업 샌디스크와 차세대 HBF의 글로벌 표준화 전략을 추진한다고 발표했다. 두 기업은 세계 최대 개방형 데이터센터 기술협력체인 OCP 산하에 협업체계를 구성하기로 했다. HBF 업계 표준 개발 작업을 담당하는 조직을 정식 출범했다는 의미다.
SK하이닉스는 “HBM과 낸드 분야에서 쌓은 설계·패키징 기술과 대량 양산 경험을 바탕으로 HBF의 빠른 표준화·제품화를 추진할 계획”이라고 밝혔다. 지난해 8월 SK하이닉스와 샌디스크는 HBF 표준화 추진을 위한 양해각서(MOU)를 체결하고 올 하반기에 HBF 시제품을, 내년 초에는 HBF를 탑재한 AI 추론장치 샘플을 선보인다는 타임라인을 제시했다.
HBF의 부상은 AI 산업의 무게중심이 학습에서 추론으로 급격히 옮겨가고 있는 상황과 관련이 있다. AI가 처리하는 정보의 양이 날로 방대해지면서 끊김 없이 거대 용량 데이터를 저장하면서도 고비용 한계를 극복하는 것이 과제로 대두했다.
HBM이 D램을 수직으로 쌓았다면 HBF는 낸드플래시 칩을 적층하는 구조이다. HBF는 초고속 연산이 강점인 HBM보다는 느리지만, 기존 데이터 저장장치인 HDD, SDD보다 훨씬 빠르게 정보를 불러올 수 있다. 또한 HBF는 용량 면에서 HBM보다 약 8~10배 크고, 비용도 상대적으로 적게 들어간다. 전력 효율도 우수한 편이다.
이에 AI 추론 고도화와 운영비용 절감을 꾀하는 주요 반도체 기업들이 적극적인 행보를 보이고 있다. 글로벌 낸드 시장 점유율 1위인 삼성전자는 ‘V-낸드 적층 기술’ 개발을 추진하고 있다.
젠슨 황 엔비디아 최고경영자(CEO)는 지난달 CES 연설에서 HBM만으로는 메모리 병목현상 해소에 한계가 있다면서 최신 AI 가속기 베라루빈에 ‘추론 맥락 메모리 스토리지(ICMS)’ 플랫폼을 도입했다고 밝혔다. ICMS는 그래픽처리장치(GPU)에 직접 저장장치를 연결함으로써 추론 성능을 좌우하는 ‘KV(키밸류) 캐시’ 활용을 용이하게 한다. 엔비디아에 도전하는 AMD, 구글도 각각 차세대 가속기와 자체 칩(TPU)에 HBF를 적용하는 방안을 검토하고 있다.
일각에선 HBF 수요가 2038년쯤 HBM 수요를 넘어설 수 있다는 전망까지도 나온다. 다만 HBF가 HBM을 대체하기보다는 상호보완적 역할을 할 것이라는 관측이 우세하다. 낸드가 기반인 HBF는 수명이 짧고 지연 시간이 길다는 단점이 있다. AI 서버 발열 해소와 패키징 기술도 과제로 지적된다.
업계 관계자는 “AI 추론 시장이 본격화될수록 고용량 메모리 확보의 필요성은 더욱 커질 것”이라며 “3~4년 후쯤 HBF를 비롯한 차세대 메모리 관련 시장이 형성될 가능성이 있다”고 말했다.
김유진 기자 yjkim@kyunghyang.com
▶ 매일 라이브 경향티비, 재밌고 효과빠른 시사 소화제!
▶ 더보기|이 뉴스, 여기서 끝나지 않습니다 → 점선면
©경향신문(www.khan.co.kr), 무단전재 및 재배포 금지
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
