D램 회로 선폭 대폭 줄이고
안정적 패키징 개발에 속도
소규모 파일럿 생산 단계
HBM 시장 폭발적 성장
엔비디아, 출시 주기 단축
구글·MS도 자체 AI칩 개발
삼성, 동시다발적 납품 공략
안정적 패키징 개발에 속도
소규모 파일럿 생산 단계
HBM 시장 폭발적 성장
엔비디아, 출시 주기 단축
구글·MS도 자체 AI칩 개발
삼성, 동시다발적 납품 공략
[사진 출처 = 연합뉴스] |
삼성전자가 차세대 고대역폭 메모리인 HBM4의 개발을 내년까지 끝내겠다고 밝힌 데는, AI 반도체 시장에 ‘큰 장’이 들어서기 때문이다. 인공지능(AI) 칩 설계 1위 기업인 엔비디아는 2026년에 차세대 그래픽처리장치(GPU) ‘루빈(Rubin)’을 양산한다는 방침이다. 그만큼 반도체 기업 모두가 루빈에 자사의 HBM4를 탑재하는 데 공을 들일 수밖에 없다는 평가다.
삼성전자는 이를 위해 디램(DRAM) 회로 선폭을 줄이고 있을 뿐 아니라, 이를 안정적으로 쌓을 수 있는 패키징 개발에도 속도를 내고 있다.
11일 반도체 업계에 따르면, 삼성전자는 현재 HBM4를 위한 전용라인 ‘D1c’를 구축한 상태다. 10나노미터(nm·1나노는 머리카락의 10만 분의 1 굵기) 디램 공정은 D1x→D1y→D1z→D1a→D1b→D1c 순으로 회로폭이 좁아진다. D1c는 10나노미터 극 초반 공정인 셈이다. 현 모델인 HBM3E는 D1a에서 생산 중인데, D1b를 건너뛰고 곧바로 D1c로 돌입한 대목이다. 현재는 대량 생산 전에 소규모로 시범적으로 제품을 만들어보는 ‘파일럿 생산’ 단계인 것으로 알려졌다. 한 반도체 업체 관계자는 “미세회로는 HBM의 데이터 전송속도에 직결돼 있다”면서 “이를 위해선 메모리 내부에서 신호를 빠르게 이동시키기 위한 초정밀 배선과 신호처리 회로 설계가 필수”라고 설명했다.
삼성전자는 HBM4 개발 로드맵을 지난 3분기 실적 발표에서 구체적으로 발표한 바 있다. 내년 하반기까지 개발을 끝내고 양산까지 돌입하겠다는 구상이다. 애초 목표인 2026년 보다 6개월 가까이 앞당겼다. 또 삼성전자가 반도체 학술대회 ‘ISSCC 2024’에서 발표한 바에 따르면, 데이터 전송 속도인 대역폭은 HBM3E 보다 66% 증가한 초당 2테라바이트(TB), 메모리 용량은 HBM3E 보다 33% 늘어난 48기가바이트(GB)에 달할 전망이다. SK하이닉스 역시 HBM4 개발 로드맵을 앞당겼다. 애초 2026년에서 2025년 하반기로 6개월 이상 앞당긴 데는 엔비디아의 요청이 있었던 것으로 반도체 업계는 추정한다.
<이미지를 클릭하시면 크게 보실 수 있습니다> |
업계에서는 삼성전자가 엔비디아에 HBM4를 선제적으로 공급할 수 있다면, 부진한 것 아니냐는 평가를 한 번에 날릴 수 있을 것으로 보고 있다. 다만 1위를 역전하는 데는 상당한 노력이 필요하다. 김광진 한화투자증권 애널리스트는 앞서 “SK하이닉스가 HBM 시장에서 주도권을 지속해서 갖고갈 가능성이 크다”면서 “현재로선 HBM4 샘플을 고객사에 가장 먼저 전달할 것 같다”고 말했다. 트렌드포스에 따르면, 올해 HBM 시장 점유율은 SK하이닉스가 52.5%, 이어 삼성전자(42.4%), 마이크론(5.1%)이 뒤를 이을 전망이다.
HBM 수요는 급증할 것으로 보인다. 엔비디아가 그동안 2년 단위로 새로운 그래픽처리장치(GPU)를 공개하던 관례를 깨고, 2026년부터는 1년 단위로 내놓는다는 방침이다. 젠슨 황 엔비디아 최고경영자(CEO)는 올 6월 대만 국립타이베이대에서 열린 ‘타이베이 컴퓨텍스 2024’에서 차세대 GPU인 ‘루빈’에 대한 청사진을 공개했다.
루빈은 TSMC 3나노미터 공정에서 생산되며 HBM4가 8개 탑재된다. 2027년 출시될 루빈 울트라에는 HBM4 12대가 들어간다. 수요는 이뿐만 아니다. 데이터센터를 운영하는 빅테크 기업 모두 자체 칩을 설계하고 있다. 구글은 지난해부터 AI 연산에 최적화된 TPU(Tensor Processing Unit)를 사용하고 있고, 아마존은 이스라엘 반도체 기업 안나푸르나 랩스를 인수한 뒤 AI 반도체인 인퍼런시아와 트레이니엄을 개발했다. 또 메타는 올해 5월 자체 개발한 AI 반도체 MTIA를 전격 공개했고, 마이크로소프트는 지난해 AI용 GPU 마이아 100과 고성능 컴퓨팅 작업용 CPU 코발트 100을 선보였다. 아울러 오픈AI마저 브로드컴 TSMC 등과 협력해 AI 칩 개발에 뛰어든 것으로 알려졌다.
이처럼 빅테크 기업들이 AI경쟁에서 승기를 잡고자 자체 AI 칩 개발에 뛰어들면서, HBM 시장이 커지고 있는 셈이다. 트렌드포스에 따르면, 전 세계 HBM 시장 규모는 올해 약 182억달러(약 25조원)에 도달한 뒤 내년에는 467억달러(약 65조원)로 성장할 전망이다.
HBM 개발 경쟁도 갈수록 더 치열하다. 2015년에 나온 HBM1은 전송속도가 초당 128기가바이트(GB) 정도였다. 책 128권을 1초에 전송하는 속도다. 하지만 HBM3는 819GB에 달한다. 6배나 빨라졌다. HBM4는 1TB(테라바이트) 이상이어서 1초만에 영화 수십편 분량을 보내는 초고속으로 변모할 전망이다. 고객사 요구에 맞춰 전력 소모도 줄어들고 있다. HBM4는 동일한 작업(대역폭)을 처리할 때, 일반 디램인 DDR4 보다 40~50% 정도 전력을 덜 사용할 전망이다.
다만 단이 16단 이상 높아지면서, 개발 난도는 함께 높아지고 있다. 칩을 연결하고자 매우 작은 구멍을 뚫어 데이터를 빠르게 주고받게 만드는 TSV(실리콘 관통 전극) 기술이 대표적이다. 또 HBM4는 중앙처리장치(CPU)나 GPU와 가까운 위치에 설치해야 해서 기존 시스템 설계(배치)를 변경해야 할 수 있다. 또 엄청난 속도로 데이터를 처리하기 때문에 많은 열이 발생해 정교한 냉각 시스템이 동반돼야 한다.
[ⓒ 매일경제 & mk.co.kr, 무단 전재, 재배포 및 AI학습 이용 금지]
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.