컨텐츠 바로가기

11.06 (수)

이슈 인공지능 시대가 열린다

AI 열풍 이면···베일에 싸인 물·전기 사용량 기후엔 악당? [AI 빅뱅 1년②]

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

AI 개발에 사용되는 물·전기 규모 ‘베일’

‘챗GPT서 대화 한 번에 물 500㎖’ 연구

GPT3 학습 땐 ‘100가구 전기’보다 더 써

“탄소 배출 감내할 가치 여부 판단 필요”

경향신문

“물을 달라” 올해 7월 이상 기후로 최악 가뭄에 시달리자 시민들이 우루과이 정부를 상대로 물 부족 사태에 항의를 하며 집회를 하고 있다. AFP 연합뉴스 자료사진

<이미지를 클릭하시면 크게 보실 수 있습니다>


올해 7월 우루과이에서는 구글이 데이터센터를 설립하려다 주민들의 반발로 계획을 축소한 일이 발생했다. 이상 기후로 인한 최악의 가뭄으로 식수조차 구하기 어려웠다. 이런 우루과이에 하루 냉각수만 769만ℓ를 사용하는 데이터센터가 들어선다는 소식이 알려지자 시민들이 대규모 시위에 나섰다. 일일 냉각수 양은 하루 5000명의 사람들이 가정에서 쓰는 물의 양과 맞먹는 규모였다. 결국 구글은 데이터센터 규모를 줄이겠다며 물러섰다. 스페인에서도 데이터센터를 설치하려는 메타가 주민들의 반발에 부딪혀 갈등을 빚고 있다.

생성형 인공지능(AI) 개발 경쟁이 수자원 등 천연자원 확보 전쟁으로 번지면서 세계 곳곳에서는 기후위기 확대에 대한 우려가 커지고 있다.

AI 산업이 급성장하고 있음에도 이를 개발하는 데 쓰이는 전기와 물 사용량 등은 베일에 싸여 있다. 연구자들은 개발 업체에 전기와 물 사용량 등을 공개토록 해 AI 모델이 해당 전력 사용과 탄소 배출을 감내할 만큼 가치가 있는 것인지 판단하는 작업이 필요하다고 주장한다.

30일 정보기술(IT)업계와 외신 등에 따르면 미국 서부 지역과 스페인과 칠레, 우루과이, 아일랜드, 네덜란드 등에서는 데이터센터가 쓰는 물을 놓고 빅테크 기업과 주민 간 갈등이 이어지고 있다. 해당 지역은 빅테크 기업들이 AI 수요가 커질 것을 대비해 인터넷 데이터센터(IDC)를 지으려는 곳이다.

AI는 수천개의 반도체를 가진 서버에 의존하는 데이터센터에서 돌아가는 클라우드 컴퓨팅을 기반으로 운영된다. 데이터센터 내 서버는 가동 시 막대한 열을 방출해 24시간 작동하려면 냉각수가 필요하다. 바닷물은 부식·박테리아 증식 가능성 때문에 쓰지 못해 깨끗한 담수를 써야 한다.

생성형 AI의 두뇌인 거대언어모델(LLM)을 작동하기 위해 데이터센터에 들어가는 물 사용량에 대해선 정확한 정보가 없다. 일부 대학에서 진행된 개별적인 연구로 추정치만 있을 뿐이다.

AI 산업을 주도하는 오픈AI의 LLM인 챗GPT의 경우 대화를 한 번 나누는 데 물 500㎖가 소요된다는 연구 결과가 나왔다. 질문과 답변을 25~50개 정도 주고받는 수준이다. 코롤라도대와 텍사스대 연구진이 챗GPT 가동시 발생하는 열을 식히기 위해 데이터센터에서 쓰는 냉각수 양을 추정한 결과로, GPT3을 훈련하는 데는 70만ℓ의 물을 쓴 것으로 집계됐다. 이는 BMW 자동차 370대를 생산하는 데 들어가는 물의 양과 같다.

월스트리트저널(WSJ)은 “GPT4는 더 많은 물을 소비할 가능성이 높지만 충분한 데이터가 공개되지 않았다”며 “빅테크 기업들이 내부 기밀 노출 우려와 지역 여론 등을 의식해 물 소비량을 공개하지 않고 있어, AI가 이상 기후를 더 악화시킬 수 있다”고 지적했다.

막대한 양의 전기도 투입된다. 스탠퍼드대 연구진에 따르면 GPT3가 학습하는 데에는 미국 120개 가구의 1년 전기 사용량인 1287MWh가 들어갔다. 하나의 AI 모델을 학습시키기 위해 미국 내 100가구가 1년 동안 쓰는 것보다 더 많은 전기가 쓰인 것이다. 이산화탄소 배출량으로 환산하면 502t이다. 이는 미국 자동차 110대가 1년에 배출하는 양과 맞먹는 규모로, 한국인 1인당 탄소 배출량(11.66t)의 43배를 웃돈다.

현재 속도로 AI가 발전하면 2027년에는 세계 AI 서버의 전력 소비량이 한 국가의 연간 전력 소비량과 비슷해질 것이라는 전망도 나왔다. AI 스타트업 허깅페이스 연구에 따르면 구글은 하루 최대 90억건의 검색을 처리하는데, 모든 검색에 AI를 적용하면 약 29.2TWh가 필요할 것으로 추정했다. 이는 아일랜드의 연간 전력 소비량에 맞먹는다.

허깅페이스의 연구원 샤샤 루치오니는 “AI 모델 규모가 기하급수적으로 커지고 있어 개발사들이 전력 소비량을 투명하게 공개해야 한다”며 “이를 근거로 정부 차원에서 AI 모델이 해당 전력 사용과 탄소배출을 감내할 만큼 가치가 있는 것인지 판단할 필요가 있다”고 말했다. AI가 물과 전기를 먹는 하마로 불리는 만큼 필요하지도 않은 모든 종류의 작업에 AI를 투입하는 것은 쓸데없는 에너지 낭비가 될 수 있기 때문이다.

김은성 기자 kes@kyunghyang.com

▶ 독립언론 경향신문을 응원하신다면 KHANUP!
▶ 나만의 뉴스레터 만들어 보고 싶다면 지금이 기회!

©경향신문(www.khan.co.kr), 무단전재 및 재배포 금지

기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.