H200공개…메모리 80GB→141GB로 확대
챗 GPT-4 훈련 최적화…성능 최대 90%↑
개당 2.5만~4만달러 H100칩보다 비싸질듯
AMD 추격 뿌리칠 전략…충분한 생산 관건
젠슨 황 엔비디아 최고경영자(CEO). (사진=AFP 제공) |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
엔비디아는 13일(현지시간) 그래픽처리장치(GPU) H200을 공개했다. 챗GPT를 개발한 오픈AI의 최신 LLM인 GPT-4를 훈련하는 데 최적화된 칩으로, 기존 GPU H100의 후속 모델이다.
H200에는 무려 141GB의 차세대 메모리 ‘HBM3’가 탑재돼 있다. 기존 H100의 메모리는 80GB이다. 고대역폭 메모리인 HBM은 여러 개의 D램을 수직으로 연결해 데이터 처리 속도를 끌어올린 고성능 제품이다. 데이터가 다니는 통로가 넓어진 만큼 속도가 빨라진다. AI모델을 사용한 텍스트, 이미지 등 생성능력과 추론 능력이 기존 H100보다 약 60~90% 향상됐다는 게 엔비디아의 설명이다.
엔비디아 측은 “메타의 LLM ‘라마2’를 대상으로 테스트해 본 결과 H200가 기존의 H100에 비해 처리 속도가 최대 2배가량 빠른 것으로 확인됐다”고 설명했다.
특히 이 칩은 기존 H100칩을 호환하는 시스템과 호환이 되도록 제조됐다. 클라우드 업체인 아마존, 구글, 마이크로소프트, 오라클이 별다른 시스템 변경없이 H200칩을 그대로 사용할 수 있도록 한 셈이다.
아울러 엔비디아는 전력 사용량을 최소화 시킨 암(ARM)기반의 엔비디아 그레이스호퍼 슈퍼칩(GH200)과 컴퓨팅 플랫폼인 HGX와 호환이 가능하도록 했다. GPU 외 중앙처리장치(CPU) 등으로 다양한 포트폴리오 확장에 나서고 있는 엔비디아입장에서는 AI업체에 일체형 서버를 제공하면서 시장 지배력을 키우겠다는 복안이다.
엔비디아는 내년 2분기에 H200 판매에 들어갈 전망이다. 구체적인 가격은 아직 공개되지 않았지만, 현재 H100 칩 1개당 가격이 2만5000달러∼4만달러인 점을 감안하면 이보다 높은 가격으로 출시될 것으로 예상된다.
엔비디아가 빠르게 H200을 내놓은 것은 AMD 등 경쟁자들의 추격을 뿌리치기 위해서다. AMD는 지난 6월 MI300X 칩을 발표하고 연말부터 본격 출시에 들어간다고 밝힌 바 있다. MI300X 칩은 최대 192GB의 메모리를 탑재해 초거대 AI 모델에 장착할 수 있다. 엔비디아 H100(120GB)의 메모리는 물론 H200보다도 큰 용량이다.
관건은 엔비디아가 H200칩을 충분히 생산할 수 있을 지 여부다. 엔비디아는 세계 최고 팹리스(반도체 설계회사)인 TSMC를 통해 AI칩을 생산하고 있다. AI가 각광을 받으면서 기존 칩인 H100만 해도 수요 대비 공급이 달리고 있어 충분한 이익을 보지 못하고 있다. 중국의 경우 미국의 반도체 수출 규제로 수출이 막혀 있지만, 중동을 비롯해 전 세계에서 엔비디아의 AI칩 사재기에 나서고 있는 실정이다. 실리콘밸리에서는 H100을 충분히 보유한 유통업체를 찾는 게 핵심 비즈니스가 됐다는 소문이 돌 정도다. 엔비디아는 생산물량 전망에 대해 언급을 하지 않았다.
미국의 IT전문지 ‘더 버지’는 “관건은 기업들이 엔비디아의 차세대칩을 충분히 손에 넣을 수 있을지 여부다”면서 “엔비디아는 아직 이에 대한 해답을 갖고 있지 않을 것 같다”고 분석했다.
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.