컨텐츠 바로가기

    02.25 (수)

    이슈 IT기업 이모저모

    팀네이버, B200 GPU 4000장 규모 AI 컴퓨팅 클러스터 구축

    댓글 첫 댓글을 작성해보세요
    주소복사가 완료되었습니다
    디지털데일리

    <이미지를 클릭하시면 크게 보실 수 있습니다>


    [디지털데일리 이안나기자] 팀네이버가 엔비디아 차세대 GPU ‘B200(블랙웰)’ 4000장을 기반으로 한 대규모 AI 컴퓨팅 클러스터 구축을 완료했다고 8일 밝혔다. 이번 인프라 구축을 통해 팀네이버는 AI 모델 학습과 서비스 적용을 위한 컴퓨팅 자원을 확대했다.

    팀네이버는 그간 대규모 GPU 자원을 연결·운영하는 클러스터 설계와 운영 경험을 축적해 왔다. 2019년 엔비디아 슈퍼컴퓨팅 인프라인 ‘슈퍼팟’을 상용 환경에 도입한 이후, 고성능 GPU 클러스터를 자체 설계·운영하며 기술 운영 경험을 확보해 왔다.

    이번에 구축된 ‘B200 4K 클러스터’에는 냉각, 전력, 네트워크 최적화 기술이 적용됐다. 대규모 병렬 연산과 고속 통신 환경을 전제로 설계됐으며, 대형 슈퍼컴퓨터와 유사한 수준의 컴퓨팅 자원을 확보한 것이 특징이다.

    팀네이버에 따르면 내부 시뮬레이션 기준으로 720억개(72B) 파라미터 규모 AI 모델 학습 시, 기존 A100 GPU 2048장 기반 인프라에서 약 18개월이 소요되던 학습 기간을 B200 4K 클러스터에서는 약 1.5개월 수준으로 단축할 수 있는 것으로 분석됐다. 다만 해당 수치는 시뮬레이션 결과로 실제 학습 환경과 모델 구성에 따라 차이가 발생할 수 있다.

    학습 시간 단축에 따라 모델 실험과 반복 학습 주기를 단축할 수 있으며, 모델 개선 속도와 운영 효율성 측면에서 유연성이 확대될 것으로 회사 측은 보고 있다.

    팀네이버는 해당 인프라를 활용해 독자 파운데이션 모델 고도화 작업을 진행할 계획이다. 텍스트뿐 아니라 이미지·비디오·음성 등을 동시에 처리하는 옴니(Omni) 모델 학습 규모를 확대하고, 이를 다양한 서비스와 산업 영역에 단계적으로 적용한다는 구상이다.

    최수연 네이버 대표는 “이번 AI 인프라 구축은 단순한 기술 투자를 넘어 국가 차원 AI 경쟁력 기반과 AI 자립·주권을 뒷받침하는 핵심 자산을 확보했다는데 의미가 있다”며 “팀네이버는 빠른 학습과 반복 실험이 가능한 인프라를 바탕으로, AI 기술을 서비스와 산업 현장에 보다 유연하게 적용해 실질적인 가치를 만들어 나갈 것”이라고 말했다.

    - Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지 -
    기사가 속한 카테고리는 언론사가 분류합니다.
    언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.