컨텐츠 바로가기

    03.18 (수)

    "블랙웰은 잊어라, 에이전틱 AI 시대 온다"…엔비디아, '베라 루빈' 출격

    댓글 첫 댓글을 작성해보세요
    주소복사가 완료되었습니다

    [인더스트리 AI] GTC 2026서 차세대 AI 플랫폼 '베라 루빈' 전격 공개

    디지털데일리

    <이미지를 클릭하시면 크게 보실 수 있습니다>


    [디지털데일리 김문기기자] 엔비디아가 '에이전틱 AI(Agentic AI)' 시대를 선도할 차세대 아키텍처를 공개하며 또 한 번 세대교체를 선언했다.

    엔비디아는 17일(현지시간) 미국 새너제이에서 열린 세계 최대 AI 콘퍼런스 'GTC 2026'에서 신규 AI 플랫폼인 베라 루빈(Vera Rubin)을 발표하고, 세계 최대 규모의 AI 팩토리 확장을 이끌 핵심 칩 7종의 본격적인 양산에 돌입했다고 밝혔다.

    젠슨 황 엔비디아 최고경영자(CEO)는 기조연설을 통해 "베라 루빈은 세대를 뛰어넘는 도약"이라며 "이제 에이전틱 AI의 전환점이 도래했고, 베라 루빈이 역사상 가장 위대한 인프라 구축을 본격화하고 있다"고 강조했다.

    이번에 공개된 베라 루빈 플랫폼은 단순한 개별 칩의 성능 향상을 넘어, 거대한 데이터센터 전체를 하나의 AI 슈퍼컴퓨터로 작동하게 만드는 랙(Rack) 및 포드(POD) 단위의 완전 통합형 시스템이다.

    핵심 구성 요소로는 엔비디아 베라 CPU와 루빈 GPU를 필두로 NV링크 6 스위치, 커넥트X-9 슈퍼NIC, 블루필드-4 DPU, 스펙트럼-6 이더넷 스위치, 새롭게 생태계에 편입된 그록 3 LPU(Groq 3 LPU)가 포함된다. 이들은 AI 모델의 대규모 훈련부터 실시간 에이전틱 추론까지 전 단계를 유기적으로 지원한다.

    가장 주목받는 하드웨어는 단연 베라 루빈 NVL72 랙이다. 72개의 루빈 GPU와 36개의 베라 CPU가 촘촘히 연결된 이 시스템은 전작인 블랙웰 플랫폼 대비 4분의 1 수준의 GPU만으로도 대규모 전문가 혼합(MoE) 모델을 훈련할 수 있다. 토큰당 비용은 10분의 1 수준으로 대폭 낮췄으며, 전력당 추론 처리량은 최대 10배까지 끌어올렸다. 강화학습과 결과 검증에 특화된 고밀도 수랭식 인프라인 베라 CPU 랙 역시 기존 CPU 대비 2배 높은 효율성과 50% 빠른 처리 속도를 자랑한다.

    추론 영역에서의 성능 향상도 눈에 띈다. 초고속 추론에 특화된 엔비디아 그록 3 LPX 랙은 베라 루빈과 결합해 메가와트당 최대 35배 더 높은 추론 처리량을 제공한다. 1조 개 이상의 파라미터를 가진 거대 모델의 출력 지연을 최소화하기 위해 공동 설계됐다. 올 하반기 시장에 정식 출시될 예정이다.

    여기에 대규모 언어 모델(LLM)이 생성하는 방대한 캐시 데이터를 빠르게 처리하는 블루필드-4 STX 스토리지 랙과 데이터센터 내 막힘없는 트래픽 흐름을 보장하는 스펙트럼-6 SPX 이더넷 랙이 더해져 인프라의 완성도를 높였다.

    엔비디아는 전력망의 한계를 극복하기 위한 솔루션도 함께 내놓았다. AI 팩토리 전체의 전력을 동적으로 분배해 동일한 전력 환경에서도 인프라 구축 규모를 30% 늘려주는 DSX 맥스-Q(Max-Q) 기술을 선보였다.

    오픈AI, 앤트로픽, 메타 등 글로벌 선도 AI 기업들은 물론 AWS, 마이크로소프트 애저, 구글 클라우드 등 주요 빅테크 파트너들은 올 하반기부터 베라 루빈 플랫폼을 도입해 차세대 에이전틱 AI 서비스 개발에 본격적으로 나설 계획이다.

    - Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지 -
    기사가 속한 카테고리는 언론사가 분류합니다.
    언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.