컨텐츠 바로가기

    12.11 (목)

    “ML 모델 개발 가속화”스노우플레이크, 엔비디아 쿠다-X 라이브러리 통합

    댓글 첫 댓글을 작성해보세요
    주소복사가 완료되었습니다

    스노우플레이크가 스노우플레이크 ML 플랫폼에 오픈소스 라이브러리인 엔비디아의 ‘쿠다-X(NVIDIA CUDA-X)’를 사전 탑재한다고 밝혔다. 이를 통해 고객은 GPU 가속 알고리즘을 ML 워크플로우에 즉시 활용할 수 있다. 전체 ML 모델 개발 라이프사이클이 단순·효율화되면서, 데이터 사이언티스트들은 코드 수정을 하지 않아도 주요 파이썬 라이브러리 기반 모델의 개발 속도를 크게 높일 수 있다는 설명이다.


    스노우플레이크에 따르면 기업이 보유한 데이터세트의 규모가 빠르게 확장하며 생산성 유지 및 효율적인 비용 관리를 위한 GPU 가속의 중요성이 커지고 있다. 엔비디아 벤치마크에 의하면 엔비디아 A10 GPU는 랜덤 포레스트(Random Forest) 알고리즘에서 CPU 대비 약 5배, HDBSCAN에서는 최대 200배까지 속도 향상을 보였다. 이번 통합에 따라 엔비디아 쿠다-X 데이터 사이언스(CUDA-X DS) 생태계에서 제공되는 ‘엔비디아 cuML’, ‘엔비디아 cuDF 라이브러리’를 스노우플레이크 ML에서 활용할 수 있으며, ‘scikit-learn’, ‘pandas’, ‘UMAP’, HDBSCAN 등 라이브러리의 개발 사이클을 별도의 코드 변경 없이 단축할 수 있다.


    또한 엔비디아 고객도 쿠다-X 데이터 사이언스 생태계에서 스노우플레이크 컨테이너 런타임을 직접 활용할 수 있다. 스노우플레이크 컨테이너 런타임은 대규모 ML 개발을 위한 사전 구축 환경으로, 고난도 연산 작업을 보다 효율적으로 처리하도록 지원한다. 예를 들어 기업은 수백만 건의 제품 리뷰와 같은 대규모 테이블 데이터를 처리 및 클러스터링하는 시간을 수 시간에서 수 분으로 단축할 수 있다. 또한 컴퓨터 유전체학(Computational Genomics) 연구에서도 GPU 수준을 높여 방대한 고차원 시퀀스 분석 및 분류 작업 속도를 높인다.


    양사는 이번 통합을 통해 AI 데이터 클라우드 내 생성형 AI 역량을 한층 강화했으며, 스노우플레이크는 전통적인 ML 모델 개발부터 엔터프라이즈급 LLM 배포에 이르기까지 고객이 고도화된 GPU 가속 도구를 활용할 수 있도록 협력 관계를 넓혀나갈 계획이다.


    스노우플레이크 제품 담당 수석부사장 크리스티안 클레이너만은 “스노우플레이크는 기업이 쉽고 안전한 환경에서 데이터와 AI를 최대 성능으로 활용하는 것을 목표로 하며, 엔비디아와의 통합은 그 목표에 한 단계 가까워진 과정이다. 쿠다-X 라이브러리를 스노우플레이크 플랫폼에 통합함으로 데이터 사이언티스트가 인프라 관리에 쓰는 시간을 줄이고 비즈니스 인사이트 도출과 성과 창출에 집중할 수 있게 될 것”이라고 말했다.


    엔비디아 엔터프라이즈 전략 파트너십 부문 부사장 팻 리는 “인텔리전스를 실현하는 원시 데이터를 인사이트로 전환하는 과정이 생성형 AI와 에이전트 AI의 핵심”이라며 “엔비디아 cuDF와 cuML 라이브러리를 스노우플레이크 ML 플랫폼에 직접 통합해 고객은 기존 파이썬 워크플로우 그대로 가속 컴퓨팅을 활용할 수 있게 됐으며, 이를 통해 더욱 쉽게 AI 개발에 집중할 수 있을 것”이라고 전했다.


    dl-itworldkorea@foundryco.com



    편집부 editor@itworld.co.kr
    저작권자 Foundry & ITWorld, 무단 전재 및 재배포 금지

    기사가 속한 카테고리는 언론사가 분류합니다.
    언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.