엔비디아 차세대 AI 플랫폼 '베라 루빈'용 메모리 공급
대역폭 2.8TB/s…HBM3E 대비 성능·전력 효율 개선
AI 데이터센터용 메모리·스토리지 동시 공략
이 발표는 미국 캘리포니아 새너제이에서 열리고 있는 엔비디아 연례 개발자 행사 GTC 2026에 맞춰 공개됐다.
마이크론의 대만 타이중 팹(공장). [사진=마이크론] |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
이번 HBM4는 초당 11Gb/s 이상의 핀 속도와 2.8TB/s 이상의 메모리 대역폭을 지원한다. 이전 세대인 HBM3E(5세대) 대비 대역폭보다 약 2.3배, 전력 효율은 20% 이상 개선됐다.
마이크론 고대역폭메모리(HBM)4 [사진=마이크론] |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
마이크론은 또 16개 다이를 쌓은 48GB HBM4 샘플도 고객사에 공급 중이라고 밝혔다. 기존 36GB 제품보다 용량이 33% 늘어난 제품이다.
AI 서버용 메모리 제품군도 확대됐다. 마이크론은 AI 서버용 저전력 메모리 모듈인 소캠(SOCAMM)2도 양산에 들어갔다고 밝혔다.
마이크론 AI 서버용 메모리 모듈 '소캠(SOCAMM)2' [사진=마이크론] |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
이 제품은 차세대 AI 슈퍼칩·랙 시스템인 '베라 루빈 NVL72'과 중앙처리장치(CPU) '베라' 에 사용되며 CPU 하나당 최대 2테라바이트(TB) 메모리와 초당 1.2TB의 메모리 대역폭을 지원한다.
스토리지 분야에서도 신제품을 공개했다.
마이크론은 PCI익스프레스 6세대 (PCIe Gen6) 데이터센터용 솔리드스테이트드라이브(SSD)인 '마이크론 9650'을 업계 최초로 양산한다고 밝혔다.
마이크론 ‘9650’ PCIe 6세대 SSD [사진=마이크론] |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
이 제품은 PCIe 5세대 SSD보다 최대 2배의 읽기 성능과 2배 높은 전력당 성능을 제공하며, 초당 최대 28GB 순차 읽기 속도와 550만 IOPS(초당 입출력 횟수) 성능을 지원한다.
마이크론은 해당 SSD가 엔비디아 '블루필드-4 STX' 데이터 처리 아키텍처 기반 AI 서버에서 학습(training)과 추론(inference) 작업을 처리하도록 최적화됐다고 설명했다.
마이크론은 이번 GTC 행사에서 HBM4, SOCAMM2, PCIe 6세대 SSD 등 AI 데이터센터용 메모리·스토리지 포트폴리오를 공개하며 AI 인프라 시장 확대에 대응하고 있다.
수밋 사다나 마이크론 최고사업책임자(CBO)는 "컴퓨팅과 메모리가 처음부터 함께 확장되도록 설계돼야 한다"며 "HBM4와 SOCAMM2, PCIe 6세대 SSD가 차세대 AI 인프라의 기반이 될 것"이라고 밝혔다.
/권서아 기자(seoahkwon@inews24.com)
[ⓒ 아이뉴스24 무단전재 및 재배포 금지]
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
