올해 10주년 맞은 'AWS 서밋 서울' 16일 개막
생성AI' 전면 내세워…SKT·업스테이지 등과 협업
17일까지 이틀간 열려…사전등록자 3만명 육박
아마존웹서비스(AWS)가 한국 시장에서 소프트웨어는 물론 인공지능(AI) 칩을 비롯한 하드웨어 사업에서도 성과를 내고 있다. 기업들의 생성 AI 활용 장벽을 낮추기 위한 노력 덕분이다.
함기호 AWS코리아 대표는 16일 서울 강남구 코엑스에서 열린 'AWS 서밋 서울 2024'에서 "10여년간 AWS는 한국에 계속 투자해 왔다"며 "현재 고객사 수만곳이 AWS 클라우드를 활용하며, 1000개 이상 파트너와 협력 중"이라고 밝혔다.
이어 "특히 최근 생성 AI 분야에서 AWS 자체 제작 칩인 트레이니엄(학습용)과 인퍼런시아(추론용)를 도입하거나 도입을 검토 중인 고객사가 빠르게 증가하고 있다"며 소프트웨어뿐 아니라 하드웨어 분야에서도 AWS 입지가 커지고 있다고 강조했다.
AWS는 지난 2017년부터 자체 AI 칩을 개발해 왔다. 이후 머신러닝에 특화된 트레이니엄 칩과 AI 추론 등에 특화된 인퍼런시아 칩을 선보였다. 2023년 초 출시한 인퍼런시아2는 기존 모델보다 추론 비용을 40% 줄여 기업의 비용 절감에 힘을 보태고 있다. 함 대표는 "AWS 칩은 그래픽처리장치(GPU) 최적화와 비용 절감이 동시에 가능하다"며 "지속 가능하고 비용 효율적인 클라우드 환경을 제공하기 위해 노력할 것"이라고 말했다.
베드록과 세이지메이커 점프스타트 등 AWS의 AI 솔루션을 활용하는 고객사 사례도 소개했다. 이들은 기업이 다양한 종류의 생성 AI 모델을 쉽게 활용할 수 있도록 지원하는 솔루션이다. 베드록은 아마존 자체 모델과 클로드·라마·스테이블디퓨전 등 파트너십을 맺은 업체들의 언어모델을 완전관리형으로 지원한다. 세이지메이커는 더 다양한 업체의 언어모델을 기업이 써볼 수 있게 하는 플랫폼이다.
국내에선 SK텔레콤·KT·엔씨소프트·업스테이지 등이 AWS와 AI 분야에서 협업 중이다. SKT는 통신 특화 초거대언어모델(LLM) '텔코 LLM' 구축에 아마존 베드록을 활용한다. KT는 교권 보호 서비스 애플리케이션 '랑톡'에서 제공하는 'AI 통화리포트'에 베드록을 접목했다. 엔씨는 지난해 자체 LLM '바르코'를 세이지메이커에 올려 글로벌 출시했다. LG AI연구원과 업스테이지도 각각 자체 LLM인 '엑사원 2.0'과 '솔라 미니'를 세이지메이커를 통해 선보였다.
SKT는 자사가 개발한 인텔리전스 플랫폼 확장에도 AWS를 활용할 계획이다. 인텔리전스 플랫폼은 기업 최적화 AI 솔루션을 단일 인터페이스로 통합 제공해 기업이 다양한 AI 모델과 관련 도구를 쓸 수 있게 지원하는 솔루션이다. 정석근 SKT 글로벌AI테크사업부장(부사장)은 이날 기조연설에서 "AWS 고객들을 통해 우리의 플랫폼을 확장하는 것도 기대하고 있다"며 "자체 LLM인 '에이닷엑스'를 베드록 위에 선보이는 방안도 검토 중"이라고 말했다.
AWS는 자사 솔루션에선 다양한 LLM을 써볼 수 있어 기업의 빠른 AI 전환을 돕는다고 전했다. 프란체스카 바스케스 AWS 부사장은 "단 하나의 모델이 모든 것을 지배할 수는 없다"며 "다양한 모델을 다양한 방식으로 활용해야 한다"고 강조했다.
AWS 서밋 서울은 올해로 10주년을 맞았다. 올해는 70곳이 넘는 AWS 고객사가 참석해 부스를 차리고, 100개 이상의 강연을 연다. 17일까지 이틀간 열리는 이번 행사의 사전등록자 수는 2만9000명에 달한다.
아주경제=윤선훈 기자 chakrell@ajunews.com
- Copyright ⓒ [아주경제 ajunews.com] 무단전재 배포금지 -
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.