알리바바 클라우드의 연례 기술 컨퍼런스인 압사라 컨퍼런스(Apsara Conference). /알리바바 클라우드 제공 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
알리바바 클라우드가 최근 포레스터웨이브(Forrester Wave™)의 ‘퍼블릭 클라우드 플랫폼 2024년 4분기’ 보고서(Public Cloud Platforms Q4 2024 report)에서 리더로 선정됐다고 10일 밝혔다.
이는 알리바바 클라우드가 주요 퍼블릭 클라우드 플랫폼 제공업체 중 처음으로 리더로 선정된 사례로, 알리바바 클라우드는 이번 선정을 자사의 심층적인 클라우드 및 AI 서비스와 전략, 글로벌 입지, 그리고 글로벌 고객에게 폭넓은 제품과 서비스를 제공할 수 있는 역량을 인정받은 것으로 보고 있다.
알리바바 클라우드는 포레스터 보고서에서 평가한 9개 글로벌 벤더의 4개 리더 업체 중 하나로 현재 제공 중인 솔루션 및 전략 부문에서 2번째로 높은 점수를 획득했다. 해당 보고서에 따르면 알리바바 클라우드는 자체 개발 인공지능(AI) 모델, 기반 모델의 폭넓은 선택권, MaaS(서비스형 모델, Model-as-a-Service) 혁신을 통해 AI 혁신 역량을 입증했다. 또한 보고서는 알리바바 클라우드의 핵심 인프라와 MaaS역량을 바탕으로 중국 전역의 AI를 위한 주요 모델 저장소를 제공할 수 있게 됐다고 밝혔다.
이번 포레스터 보고서는 9개 주요 퍼블릭 클라우드 플랫폼 제공업체를 30개 평가 기준에 따라 평가했으며, 각 업체는 현재 제공하는 솔루션 및 전략 외에 시장 영향력을 기준으로 평가받았다. 알리바바 클라우드는 데이터베이스, 데이터 통합 및 거버넌스 서비스, 컨테이너 및 쿠버네티스 서비스, 서버리스/FaaS(서비스형 기능, Functions-as-a-Service) 서비스, 컴퓨팅, 사물인터넷(IoT), 스토리지 서비스, AI 개발 서비스 등 17개 항목에서 최고점인 5점 만점을 획득했다.
알리바바 클라우드는 지난 9월 개최된 알리바바 클라우드의 연례 기술 컨퍼런스인 압사라 컨퍼런스(Apsara Conference)에서 강력한 AI 컴퓨팅에 대한 증가하는 수요를 충족시키기 위해 설계된 전면 개편된 풀스택(full-stack) 인프라를 공개했다. 또한 자사의 새로운 대규모 언어 모델(LLM)인 Qwen 2.5(이하 큐원2.5)를 글로벌 오픈소스 커뮤니티에 100번 이상 배포했다. 알리바바 클라우드의 자체 LLM인 큐원은 2023년 4월 출시 이후 큰 호응을 얻고 있으며, 허깅페이스(Hugging Face)와 모델스코프(ModelScope) 등 오픈소스 플랫폼에서 4천만 회 이상 다운로드되었으며, 7만8000개 이상의 파생 모델 개발을 이끌어냈다.
MaaS 개념을 창안하고 오픈소스를 지지해온 알리바바 클라우드는 중국 최대의 AI 모델 커뮤니티인 모델스코프를 구축했다. 모델스코프는 1만 개 이상의 모델을 호스팅하고 있으며, 800만 명 이상의 개발자가 이용하고 있다.
전세계적으로 알리바바 클라우드는 지속적으로 글로벌 영역을 확장해 나가고 있으며, 현재 28개 지역에서 85개의 데이터센터를 운영하고 있다. 지난 5월에는 멕시코에 첫 클라우드 리전을 구축할 계획을 발표했으며, 향후 3년 내에 말레이시아, 필리핀, 태국, 한국 등 주요 시장에 데이터센터를 추가로 설립할 계획이다.
조우징런(Jingren Zhou) 알리바바 클라우드 인텔리전스 최고기술책임자(CTO)는 “퍼블릭 클라우드 분야에서 클라우드 네이티브 인프라와 AI 역량을 확장해 고객 지원을 강화하는 것이 최우선 과제이며, 이 중요 분야에서 자사의 노력을 포레스터로부터 인정받아 영광”이라고 말했다.
김민국 기자(mansay@chosunbiz.com)
<저작권자 ⓒ ChosunBiz.com, 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.