컨텐츠 바로가기

    12.28 (일)

    젠슨 황 "AI 칩, 더 많이 사면 더 많이 번다"...'AI 피크아웃' 정면 반박

    댓글 첫 댓글을 작성해보세요
    주소복사가 완료되었습니다
    [남도영 기자]

    테크M

    젠슨 황 엔비디아 최고경영자(CEO) /사진=유튜브

    <이미지를 클릭하시면 크게 보실 수 있습니다>


    젠슨 황 엔비디아 최고경영자(CEO)가 '딥시크 쇼크' 이후 불거진 AI 반도체 고점론에 대해 정면으로 부정하고 나섰다.

    18일(현지시간) 미국 세너제이에서 열린 연례 개발자 행사 'GTC 2025' 기조연설에 나선 황 CEO는 "전 세계가 잘못 이해한 부분이 있다"며 "현재 우리가 필요로 하는 연산량은 에이전틱 AI와 추론 모델 등장의 결과로 작년 이맘때 예측했던 것보다 100배 이상"이라고 밝혔다.

    스케일링 법칙은 아직 유효하다

    최근 업계에선 훨씬 저렴한 비용으로 오픈AI의 추론 모델과 맞먹는 성능을 갖춘 '딥시크 R1' 등장 이후 값비싼 엔비디아 AI 칩을 대규모로 확보하는 방식에 대한 회의론이 제기됐다. 엔비디아 칩을 많이 확보할 수록 모델 성능이 높아지고 이를 통해 시장을 선점할 수 있다는 이른바 '스케일링 법칙'에 대한 믿음이 깨지기 시작한 것.

    실제 막대했던 엔비디아의 이익률 역시 최근 발표된 실적에서 올해 2~4월 70.6%로 전년 동기 75% 보다 주춤해질 것으로 예상되고 있다. 차세대 칩인 '블랙웰'이 본격적으로 공급될 경우 70% 중반대를 회복할 것이란 예상이 나오고 있지만, 현재는 실적 지표들이 작년 8월 정점을 찍고 내려오고 있는 상황이고 주가도 지지부진하다.

    이날 황 CEO는 이런 시장의 우려를 불식시키고자 많은 시간을 할이해 AI 칩 수요가 여전함을 강조했다. 그는 AI 기술 트렌드가 생성형에서 멀티모달로, 다시 추론형으로 빠르게 진화하고 있고, 에이전틱 AI의 등장과 물리적 AI 시대로의 전환이 예고되고 있는 만큼 여전히 스케일링 법칙이 유효하다고 설명했다.

    추론 모델의 등장으로 더 많은 연산이 필요해졌다

    황 CEO는 딥시크 R1과 같이 단계별로 추론하는 모델의 등장이 오히려 AI 연산 수요를 더 확대할 것이라 주장했다. '생각의 사슬'(Chain of Thought) 등의 기술을 통해 단계적으로 추론하는 AI가 등장하며 생성되는 토큰의 양이 100배 더 많아졌고, 이를 처리하기 위해선 10배 더 빠르게 계산해야 한다는 게 그의 설명이다. 또 이런 모델을 학습하기 위해선 인간의 개입을 최소화한 강화 학습과 합성 데이터 생성이 필요하며, 이 과정에도 엄청난 양의 토큰 생성이 요구된다고 덧붙였다.

    테크M

    <이미지를 클릭하시면 크게 보실 수 있습니다>


    그는 "AI가 더 스마트해지고 추론할 수 있게 되면서 더 유용해졌고 더 많이 사용되고 있다"며 "이런 모델을 훈련시키고 추론하는 데 필요한 계산량은 엄청나게 증가했다"고 강조했다. 또 "이전에 데이터 센터 구축 비용이 1조달러에 이를 것이라 예상했으며, 이 목표가 곧 달성될 것이라 확신하다"며 "현재 전 세계 데이터센터 구축에서 변곡점이 발생하고 있고, 소프트웨어의 미래에는 자본 투자가 필요하다는 인식이 높아지고 있다"고 말했다.

    황 CEO는 현재 AI 인프라 투자에 주력하고 있는 클라우드 사업자 외에도 로봇, 자율주행, 엣지, 6G 등의 분야에서도 AI 투자가 더 활발히 이뤄질 것이라고 전망하며 GM과의 협업을 발표하기도 했다. 또한 알파벳·구글과도 에이전틱 AI와 물리적 AI의 발전을 촉진하는 새로운 이니셔티브도 공개했다.

    'AI 공장' 효율 높이려면 '스케일업' 해야

    황 CEO는 기업들이 이런 AI 투자를 지속하기 위해선 '스케일 아웃(시스템을 추가하는 수평적 확장)' 이전에 '스케일 업(성능을 업그레이드하는 수직적 확장)'을 먼저 달성해야 한다고 강조했다. 이를 통해 토큰을 생성하는 'AI 공장'의 성능과 효율성을 극대화해야 한다는 게 그의 주장이다.

    이날 엔비디아는 AI 추론 모델을 최저 비용, 최고 효율로 가속하고 확장할 수 있도록 지원하는 '다이나모'를 오픈소스로 공개한다고 밝혔다. 다이나모는 수천 개의 GPU에서 추론 통신을 조정, 가속한 뒤 분리 서빙 방식을 통해 거대언어모델(LLM)의 처리와 생성 단계들을 서로 다른 GPU에 분리한다.

    이와 함께 엔비디아는 '스펙트럼-X'와 '퀀텀-X' 실리콘 포토닉스 네트워킹 스위치도 공개했다. 이 스위치를 사용하면 에너지 소비와 운영 비용을 대폭 절감하는 동시에 AI 팩토리는 여러 장소에서 수백만 개의 GPU를 연결할 수 있다.

    올해 말 '블랙웰 울트라'에서 2026년 '루빈', 2027년 '루빈 울트라', 2028년 '파인만'까지 매년 업그레이드되는 차세대 GPU와, 이를 더 효율적으로 밀집하고 연결할 수 있는 기술들의 진화를 통해 AI 공장의 성능과 전력 효율을 높이는 게 젠슨 황의 구상이다.

    황 CEO는 스스로 '호퍼'와 '블랙웰' 기반을 비교하며, 최신 인프라일수록 더 적은 비용으로 더 많은 토큰을 생산할 수 있다고 강조했다. 그는 "여러분이 스마트한 AI를 보유하고 있다면, 사람들은 그것에 더 많은 돈을 지불할 것"이라며 "더 많이 구매할수록 더 많이 벌 수 있다"고 말했다.

    남도영 기자 hyun@techm.kr

    <저작권자 Copyright ⓒ 테크M 무단전재 및 재배포 금지>
    기사가 속한 카테고리는 언론사가 분류합니다.
    언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.