[인더스트리 AI] 오픈AI와 에이전틱 AI 전력 병목 해소 인프라 구축
<이미지를 클릭하시면 크게 보실 수 있습니다> |
[디지털데일리 김문기 기자] "우리가 오늘 사용하는 AI 모델은 앞으로 남은 평생 동안 사용할 모델 중 가장 최악의 모델일 것이다. 무한한 지능 수요를 감당하기 위해 CPU 전력 소모를 줄이고, 그 모든 잉여 전력을 추론에 쏟아부어야 한다."
Arm이 오픈AI(OpenAI)와 에이전틱 인공지능(AI) 시대의 컴퓨팅 병목 현상을 해소하고 추론 연산 능력을 극대화하기 위한 차세대 데이터센터 인프라 협력을 강화한다.
케빈 휠(Kevin Weil) 오픈AI 임원은 24일(현지시간) 미국 샌프란시스코에서 개최된 'Arm 에브리웨어' 컨퍼런스에서 AI 성능을 단일 가속기가 아닌 시스템 전체 관점으로 재정의하며 이같이 말했다. 오픈AI는 그래픽처리장치(GPU)가 시장의 주목을 독점하는 상황에서 중앙처리장치(CPU)의 오케스트레이션 역할이 핵심이라고 진단했다. 에이전틱 AI가 복잡한 워크로드를 수행할 때 컨테이너 내부의 도구를 사용하거나 파이썬 스크립트를 실행하는 모든 제어 과정이 CPU를 통해 이뤄진다.
오픈AI 내부의 가장 큰 화두는 컴퓨팅 자원의 확보다. 휠 임원은 "오픈AI 내부에서 가장 많이 듣는 말은 더 많은 컴퓨팅이 필요하다는 것이다"라고 말했다. 고객 수요와 내부의 새로운 아이디어가 산업계의 인프라 공급 능력을 추월하고 있다. 데이터센터의 전력은 항상 유한하기 때문에 동일한 성능을 내면서도 전력 소모를 대폭 줄일 수 있는 고효율 CPU 아키텍처가 필수적이다.
CPU 단에서 절감한 전력은 곧바로 가속기 연산에 투입된다. 오픈AI는 신규 'Arm AGI CPU'를 활용해 확보한 잉여 전력을 추가적인 추론 연산에 전면 할당할 방침이다. 컴퓨팅 자원의 효율적 분배는 AI 모델의 지능 향상으로 직결된다.
휠 임원은 "우리가 오늘 사용하는 AI 모델은 앞으로 남은 평생 동안 사용할 모델 중 가장 성능이 나쁜 모델일 것이다"라고 말했다. 1년 뒤에는 현재의 모델로 돌아갈 상상조차 할 수 없을 만큼 AI 발전 속도가 기하급수적으로 빨라지고 있다. 폭발하는 지능 수요를 감당하기 위해 저전력 고효율 칩 도입이 강제된다.
단순 챗봇 텍스트 생성을 넘어 과학 및 수학 난제를 해결하는 에이전틱 시대로의 전환을 선언했다. 기업용 범용인공지능(AGI)과 기초 과학 연구 등 고난도 문제를 해결하기 위해서는 AI 모델이 스스로 생각하고 연산하는 시간이 길어져야 한다. 이는 필연적으로 방대한 시스템 컴퓨팅과 장시간의 전력 공급을 요구한다. 한정된 전력을 효율적으로 활용해야만 더 긴 롤아웃(Roll-out)을 수행하고 복잡한 난제를 해결할 수 있다.
전력 효율이 극대화된 인프라는 기초 과학 발전 속도를 직접적으로 견인한다. 휠 임원은 AI가 단순히 훈련된 데이터를 모방하는 확률적 앵무새를 넘어 과학과 물리학 및 생물학의 미해결 문제를 독자적으로 풀고 있다고 설명했다. 오픈AI는 로봇 연구소와 연계해 수주 동안 3만6000번의 실험을 거쳐 인간보다 빠르고 완벽하게 새로운 단백질 합성을 최적화하는 성과를 도출했다.
휠 임원은 "과학은 그 어느 때보다 빠르게 발전할 것이며 이 모든 혁신은 Arm이 제공하는 인프라를 기반으로 구축된다"고 말했다.
- Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지 -
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
