[인더AI] AI 왕좌 흔들리나… 엔비디아, TPU 공세에 이례적 방어전 돌입
<이미지를 클릭하시면 크게 보실 수 있습니다> |
25일(현지시간) 복수 외신에 따르면 엔비디아(Nvidia)가 메타(Meta)가 구글(Google)의 텐서처리장치(TPU) 도입을 검토한다는 소식과 관련해 X를 통해 “엔비디아는 업계보다 한 세대 앞서 있다”며 구글의 움직임을 견제하면서도 기술적 우위와 범용성을 강조했다. 엔비디아가 이례적으로 즉각 대응에 나섬에 따라 이번 메시지에 대한 설왕설래가 계속되고 있다.
메타가 2027년 TPU를 자체 데이터센터에 도입하고 내년부터는 구글 클라우드 기반 TPU 임대를 활용할 수 있다는 소식이 나오자 엔비디아 주가는 3~4% 하락했다. 이에 엔비디아는 “구글의 성공을 기쁘게 생각한다. 우리는 여전히 구글에 공급한다”고 밝히면서도 “엔비디아 플랫폼은 모든 AI 모델을 어디서나 실행한다”고 강조했다.
엔비디아는 TPU와 같은 ASIC 기반 가속기가 특정 목적에 최적화된 반면 GPU는 범용성·전환성·확장성에서 경쟁 우위가 있다고 주장했다. 최신 GPU 아키텍처인 블랙웰(Blackwell) 역시 이를 전제로 설계됐다는 점을 강조했다.
TPU는 구글 내부에서 대규모 학습을 위해 개발된 칩으로 최근 공개된 7세대 ‘아이언우드(Ironwood)’는 성능·확장성 면에서 엔비디아 GPU에 근접한 경쟁력을 갖춘 것으로 평가된다. 실제로 구글은 최신 AI 모델 ‘제미니(Gemini) 3’를 TPU로 학습했고, 이는 일부 벤치마크에서 경쟁 우위를 보였다.
그러나 메타가 TPU를 실제로 도입하기에는 장벽도 크다. TPU는 외부 판매되지 않고 구글 클라우드 임대 방식으로만 제공된다. 또한 TPU 클러스터는 광회로 기반 토로이드(mesh) 구조로 구성돼 엔비디아·AMD GPU 기반 패킷 스위치형 클러스터와 구조적 접근 방식이 다르다. 메타가 자체 개발하는 파이토치(PyTorch) 역시 TPU에서 네이티브로 작동하지 않아 XLA 변환 계층을 요구한다.
일부 분석가는 메타의 TPU 검토가 실제 학습용 전환보다는 라마(Llama) 모델의 추론 최적화 목적일 가능성이 높다고 본다. TPU 기반 추론은 엔터프라이즈 고객의 배포 편의성과 지연 시간 감소 측면에서 유효하기 때문이다.
구글 역시 TPU와 엔비디아 GPU 모두에서 수요가 가속화되고 있다고 밝혀 양 플랫폼 병행 전략을 명확히 했다. 제미나이 모델이 엔비디아 GPU에서도 실행된다는 점은 모델 공급사·서비스사 간 상호 운용성을 유지하기 위한 필수 조건이다.
한편, 엔비디아는 이번 메시지를 통해 생태계의 고착성을 부각했다. CUDA를 중심으로 구축된 GPU 소프트웨어 스택은 AI 인프라의 사실상 표준으로 자리 잡았고, 이는 구글·메타·마이크로소프트·아마존 등 하이퍼스케일러가 쉽게 이탈하기 어려운 구조를 만든다.
- Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지 -
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
