컨텐츠 바로가기

    03.17 (화)

    이슈 인공지능 시대가 열린다

    [GTC2026]엔비디아 AI 반도체 칩 대거 공개…AI 인프라 주도권 겨냥

    댓글 첫 댓글을 작성해보세요
    주소복사가 완료되었습니다
    전자신문

    엔비디아 '베라 루빈'.〈사진=엔비디아 뉴스룸〉

    <이미지를 클릭하시면 크게 보실 수 있습니다>


    엔비디아가 인공지능(AI) 인프라 핵심인 반도체 칩 포트폴리오를 대거 공개했다. 본격적인 에이전트 AI 시대에 맞춰 인프라 핵심인 하드웨어(HW) 주도권을 이어나가려는 포석으로 풀이된다.

    16일(미국 현지시간) 엔비디아는 베라 루빈를 비롯한 차세대 AI 칩을 GTC 2026에서 공개했다. 베라 루빈은 에이전틱AI 시대를 겨냥해 추론 성능을 높인 AI 가속기 플랫폼이다. 이전 세대인 블랙웰 대비 전문가 혼합(MoE) 모델 훈련 시 필요한 GPU 수량을 4분의 1로 줄였다. 또한, 추론 처리량과 와트당 성능은 10배 향상되었으며, 토큰당 비용은 10분의 1 수준으로 절감됐다. AI 운용의 경제성을 강조한 것으로 풀이된다.

    엔비디아는 개별 칩이 아니라 독립형 서버와 통합형 랙 시스템, 네트워킹과 스토리지에 이르기까지 '인프라' 사업으로 영역을 확대하고 있다. 에이전틱 AI의 고대역폭·저지연 수요를 충족하기 위해 CPU, GPU, LPU를 단일 생태계로 통합해 추론 성능을 최대한 이끌어낸다는 계획이다.

    이번 GTC2026에서 △베라 CPU △루빈 GPU △NVLink 6 스위치 △ConnectX-9 SuperNIC △BlueField-4 DPU △스펙트럼-6 이더넷 스위치 △그로크 3 LPU 등 7종의 신규 칩 세부 정보가 공개됐다.

    베라 CPU는 엔비디아가 독자 설계한 '올림푸스 코어' 아키텍처를 탑재했다. 스크립팅, 텍스트 변환, 코드 컴파일 등 에이전트 작업에서 이전 세대 대비 2배의 성능 향상을 입증했다. 루빈 GPU는 288GB의 고대역폭 메모리(HBM4)를 탑재해 연산을 수행한다.

    베라 루빈에 함께 탑재된 AI 추론 칩 그로크(Groq) 3 LPU는 데이터센터에 탑재되는 랙 형태(LPX)에서 수조개의 파라미터를 가진 모델과 수백만개 토큰을 컨텍스트에 최적화됐다. 초당 22TB에서 150TB에 이르는 대역폭으로 초저지연 토큰 생성이 가능하다. 메가와트 당 최대 35배 더 높은 추론 처리량, 최대 10배 더 많은 수익 창출 기회를 제공한다.

    베라 루빈 기반 제품들은 올해 하반기부터 글로벌 빅테크를 비롯한 파트너사들에게 제공될 예정이다. 주요 클라우드 제공업체 아마존웹서비스, 구글 클라우드, 마이크로소프트 애저, 오라클 등이 대상이다.

    엔비디아는 베라 루빈을 이을 차세대 AI 반도체 플랫폼인 '로자 파인만'도 소개했다. 파인만 GPU에 베라 다음 CPU인 로자를 결합한 구조다. 여기에도 AI 추론칩(LP40 LPU)가 탑재된다.

    이형두 기자 dudu@etnews.com

    [Copyright © 전자신문. 무단전재-재배포금지]


    기사가 속한 카테고리는 언론사가 분류합니다.
    언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.