삼성SDS, 생성형 AI 구독 서비스 확대
SKT, 美 람다와 맞손 GPU 자원 배치
<이미지를 클릭하시면 크게 보실 수 있습니다> |
인공지능(AI) 기술의 발전으로 고성능 그래픽처리장치(GPU)의 중요성이 커지고 있다. GPU가 딥러닝의 대규모 데이터를 처리하고 연산 속도를 높이는 데 유용하기 때문이다. 다만 하드웨어 구매, 클러스터 구축 등 ‘고비용’ 문제와, ‘고전력’으로 에너지 효율성이 떨어진다는 한계도 대두되고 있다.
이에 구독형 GPU 서비스(GPUaaS) 사업이 뜨고 있다. 구독형 GPU는 기업 고객이 AI 등 IT 서비스 구축에 필요한 GPU를 직접 구매하지 않고, 클라우드를 통해 자원을 빌려 쓰는 서비스다. AI 모델 훈련이나 인프라 구축에 드는 GPU 자원을 필요한 만큼만 유연하게 쓸 수 있다는 게 장점이다.
19일 IT업계에 따르면, 삼성SDS는 삼성 클라우드 플랫폼(SCP)에서 GPU를 사용할 수 있는 서비스를 제공하고 있다. H100, V100, A100 모델을 프로젝트 용도나 규모에 따라 선택할 수 있다. 회사 측은 2분기 실적발표에서 “삼성SDS 클라우드 사업 중 클라우드 서비스 제공(CSP) 사업은 삼성 클라우드 플랫폼(SCP)에 기반을 둔 고성능 컴퓨팅(HPC), 생성형 AI를 위한 구독형 GPU 서비스 확대로 꾸준히 매출이 증가하고 있다”고 설명했다.
SK텔레콤은 올 연말까지 미국 GPUaaS 기업 람다(Lambda)와 SK브로드밴드 서울 가산 데이터센터에 엔비디아 GPU 자원을 배치한다. SKT는 3년 안으로 AI 데이터센터 내 GPU를 수천 대 이상까지 확대하고, 엔비디아 최신 GPU 모델인 ‘H200’도 도입할 방침이다. SKT는 2월 람다에 2000만 달러(약 270억 원)를 투자했다.
CPU와 GPU를 함께 활용하는 기술의 연구개발도 이뤄지고 있다. 19일 한동수 전기및전자공학부 교수 연구팀은 고가의 데이터센터급 GPU와 고속 네트워크 없이도 AI 모델을 학습할 수 있는 ‘스텔라트레인’ 프레임워크를 개발했다. 이 기술은 고성능 H100보다 10~20배 저렴한 소비자용 GPU를 CPU에 병렬로 연결하고, 네트워크 속도에 맞춰 데이터를 압축 전송하는 알고리즘을 적용해 학습 속도를 높였다. 그 결과, 기존 32~64개의 GPU를 사용했던 150억 파라미터 규모의 AI 언어 모델을 단 4개의 GPU만으로 학습할 수 있었다.
한 교수는 “이번 연구로 누구나 쉽게 대규모 AI 모델을 학습시킬 수 있도록 할 것”이라며 “저비용 환경에서도 대규모 AI 모델을 학습할 수 있는 기술 개발을 계속할 계획”이라고 말했다.
GPUaaS에 대한 수요는 세계적으로 늘 전망이다. 시장조사기관 ‘포춘 비즈니스 인사이트(Fortune Business Insights)’는 글로벌 GPUaaS 시장 규모가 2024년 43억1000만 달러(약 5조7400억 원)에서 2032년 498억4000만 달러(약 66조3800억 원)로 증가할 것으로 봤다. 연평균 성장률은 35.8%다.
[이투데이/이은주 기자 (letswin@etoday.co.kr)]
▶프리미엄 경제신문 이투데이 ▶비즈엔터
이투데이(www.etoday.co.kr), 무단전재 및 수집, 재배포금지
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.