추론 전용 LPU·신형 CPU '베라' 공개…AI 연산 구조 재편
GPU 중심 구조 넘어 'GPU·LPU·CPU' 분업 체계 제시
차세대 GPU '파인만' 공개…엔비디아 칩 로드맵 제시
인공지능(AI) 모델 학습 중심 구조에서 벗어나 실제 서비스를 수행하는 'AI 에이전트' 시대에 대응하기 위한 전략이다.
젠슨 황 엔비디아 최고경영자(CEO)는 16일(현지시간) 미국 캘리포니아주 새너제이에서 열린 연례 개발자 행사 'GTC 2026' 기조연설에서 그래픽처리장치(GPU)와 언어처리장치(LPU), CPU가 역할을 나누는 새로운 AI 컴퓨팅 구조를 소개했다.
젠슨 황 엔비디아 최고경영자(CEO)가 17일(한국시간) 미국 캘리포니아 새너제이에서 열린 NVIDIA GTC 2026에서 기조연설을 하고 있다. [사진=엔비디아 홈페이지 캡처] |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
젠슨황 엔비디아 최고경영자(CEO)가 16일(현지시간) 미국 새너제이에서 열린 GTC 2026 기조연설에서 차세대 AI 컴퓨팅 플랫폼을 소개하고 있다. [사진=엔비디아 홈페이지 캡처] |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
엔비디아는 언어처리장치(LPU)를 차세대 AI 슈퍼컴퓨터 플랫폼 '베라 루빈(Vera Rubin)'에 통합한다고 밝혔다.
이 구조에서는 GPU가 대규모 데이터 연산을 담당하고 LPU가 AI 응답 생성 등 추론 작업을 처리한다.
엔비디아는 이를 통해 초대형 AI 모델의 추론 처리량을 크게 높이고 지연 시간을 줄일 수 있다고 설명했다.
LPU 256개를 하나로 묶은 LPX 랙도 함께 공개됐다.
엔비디아는 또 새 CPU '베라(Vera)'를 발표했다. 이 칩에는 자체 설계한 '올림퍼스(Olympus)' 코어가 적용됐다.
젠슨황 엔비디아 최고경영자(CEO)가 16일(현지시간) 미국 새너제이에서 열린 GTC 2026 기조연설에서 차세대 데이터센터용 프로세서 '베라(Vera) CPU'를 들어 보이고 있다. [사진=엔비디아 공식 홈페이지 캡처] |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
CPU 256개를 결합한 서버 랙도 함께 제시됐다. 이는 AI 시스템에서 연산 작업을 관리하고 조율하는 역할을 수행하도록 설계된 구조다.
엔비디아가 이 같은 구조를 강조한 것은 AI 산업의 중심이 모델 학습(training)에서 추론(inference) 단계로 이동하고 있기 때문이다.
추론 연산은 실제 AI 서비스 운영 과정에서 발생하는 작업으로, 향후 데이터센터 수요의 핵심이 될 것으로 예상된다.
이날 행사에서는 차세대 GPU 로드맵도 공개됐다.
엔비디아는 현재 플랫폼 이후에 등장할 GPU '파인만(Feynman)'을 소개했다. 이 칩은 새로운 CPU '로자(Rosa)'와 함께 구동되는 구조로 설계될 예정이다.
황 CEO는 이날 AI 시장 성장 가능성도 언급했다. 그는 "엔비디아가 대응하는 AI 칩 시장 기회가 최소 1조 달러(약 1500조원) 규모에 이를 것"이라고 말했다.
미국 캘리포니아주 새너제이 SAP센터에서 엔비디아 개발자 행사 'GTC 2026'이 진행되고 있다. [사진=엔비디아 홈페이지 캡처] |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
/권서아 기자(seoahkwon@inews24.com)
[ⓒ 아이뉴스24 무단전재 및 재배포 금지]
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
