컨텐츠 바로가기

    03.02 (월)

    엔비디아, GTC서 차세대 AI칩 공개…삼성·SK 협력 관심

    댓글 첫 댓글을 작성해보세요
    주소복사가 완료되었습니다

    2028년 양산 '파인만' 아키텍처 공개할까

    GPU 성능 강화에 HBM 탑재량도 증가세

    삼성·SK, GTC서 '엔비디아 밀착 협력' 강조

    [이데일리 공지유 기자] 글로벌 인공지능(AI) 칩 시장을 주도하고 있는 엔비디아가 이달 개최하는 연례 개발자 콘퍼런스 ‘GTC 2026’에서 공개할 차세대 AI 칩에 관심이 모인다. 삼성전자와 SK하이닉스는 차세대 제품에서도 엔비디아와 고대역폭메모리(HBM) 협력을 이어갈 것으로 전망된다.
    이데일리

    젠슨황 엔비디아 최고경영자(CEO).(사진=AFP)

    <이미지를 클릭하시면 크게 보실 수 있습니다>


    엔비디아, GTC 2026서 ‘세상 놀라게 할 차세대 칩’ 공개

    2일 업계에 따르면 엔비디아는 이달 16일(현지시각)부터 19일까지 미국 캘리포니아주에서 열리는 GTC 2026에서 차세대 AI 칩을 비롯해 피지컬 AI에 대응할 새로운 플랫폼 등을 공개할 전망이다. GTC는 엔비디아가 매년 주최하는 세계 최대 규모 AI 개발자 콘퍼런스로, 이 자리에서 통상 엔비디아의 차세대 칩 로드맵을 공개한다.

    젠슨 황 엔비디아 최고경영자(CEO)가 이번 GTC 행사에서 ‘세상을 놀라게 할 칩’을 선보이겠다고 밝힌 만큼, 파인만을 비롯한 차세대 AI 가속기 아키텍처를 공개할 것이라는 관측이 나온다. 앞서 엔비디아는 지난해 GTC 행사에서 블랙웰과 블랙웰 울트라에 이어 올해 하반기 베라 루빈, 내년에는 베라 루빈 울트라를 출시한다는 로드맵을 밝힌 바 있다.

    엔비디아가 2028년 출시를 목표로 하고 있는 차세대 AI 칩 파인만은 8세대 고대역폭 메모리(HBM5)를 탑재해 기존 AI 가속기보다 성능을 끌어올린 그래픽처리장치(GPU)로, 아직 구체적인 스펙은 공개되지 않았다. 업계에서는 파인만이 TSMC의 1나노(㎚·10억분의 1m)급 공정을 적용할 것으로 보고 있다.

    엔비디아가 차세대 GPU 공개로 삼성전자와 SK하이닉스의 HBM 탑재 기대감이 더 높아질 전망이다. 엔비디아의 베라 루빈에는 개당 HBM4 288기가바이트(GB)가 탑재되는데, 내년 출시되는 루빈 울트라에는 7세대 1테라바이트(TB) 용량의 HBM4E가 탑재되며 용량이 3배 이상 급증한다.

    엔비디아는 이외에도 GTC에서 새로운 추론 전용 플랫폼을 공개할 것으로 알려졌다. 엔비디아는 그동안 호퍼, 블랙웰, 루빈 등을 통해 대규모 AI 모델 학습에 최적화한 GPU 시장을 주도해 왔는데, 최근 AI 시장이 학습에서 추론으로 이동하면서 이에 대응하기 위한 차세대 플랫폼을 내놓을 것으로 관측된다.
    이데일리

    젠슨 황 엔비디아 CEO가 1월 5일(현지시간) 미국 라스베이거스 퐁텐블로 호텔에서 열린 CES 2026 특별연설에서 차세대 AI 칩 베라 루빈을 소개하고 있다.(사진=공지유 기자)

    <이미지를 클릭하시면 크게 보실 수 있습니다>


    올해 ‘베라 루빈’ 양산…삼성·SK도 무대 오른다

    한편 올해 하반기부터 엔비디아의 차세대 AI 가속기 ‘베라 루빈’의 본격 양산이 시작되는 상황에서, 이번 GTC에서는 삼성전자와 SK하이닉스가 직접 무대에 올라 6세대 고대역폭메모리(HBM4)를 비롯한 차세대 AI 메모리 방향성을 소개할 예정이다.

    삼성전자 디바이스솔루션(DS) 부문 이얄 프니니 시니어 디렉터와 판카즈 칼라는 GTC 2026에서 ‘AI 혁신을 위한 아키텍트: 공동 디자인 메모리+현재와 미래를 위한 스토리지’를 주제로 발표한다. 이 발표에서 삼성전자는 HBM4를 포함해 HBM4E, 소캠(SOCAMM2) 등 엔비디아와 협력하고 있는 메모리 기술에 대해 설명할 것으로 예상된다. 삼성전자는 지난달 12일 세계 최초로 HBM4를 양산 출하했는데, 이는 베라 루빈 GPU에 장착하기 위해 양산한 것으로 알려졌다.

    SK하이닉스도 GTC 무대에 올라 메모리 기술력을 선보일 예정이다. 업계에 따르면 문동욱 SK하이닉스 TL은 ‘HBM4가 어떻게 거대언어모델(LLM)을 더 효율적으로 만들었는가’를 주제로 발표에 나선다. SK하이닉스는 HBM4의 높은 대역폭과 용량 증가가 어떻게 LLM 시스템에서 처리량 증가로 이어지는지에 대해 설명한다. 또 HBM4가 장착된 엔비디아의 GPU 플랫폼에서 AI 시스템이 기대할 수 있는 성능 향상에 대해 소개할 예정이다.

    삼성전자와 SK하이닉스는 HBM4에 이어 내년부터 시장이 본격적으로 확대될 것으로 보이는 HBM4E와 맞춤형 HBM(cHBM), 차세대 메모리 모듈인 서버용 저전력 D램 모듈인 소캠 등 AI 메모리 시장에서 경쟁을 이어간다는 계획이다. 미국 마이크론 등 반도체 업계에 따르면 글로벌 HBM 시장 규모는 2028년 1000억달러(약 146조원) 규모로 연평균 40% 성장할 것으로 예상된다.


    기사가 속한 카테고리는 언론사가 분류합니다.
    언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.