생성형 AI 도구, 기술, 역량에 대한 투자 경쟁이 가속화됨에 따라, 사이버보안 책임자는 AI가 내장된 소프트웨어의 보안성뿐 아니라 이를 뒷받침하는 AI 데이터센터 자체의 보안 여부를 철저히 검토해야 한다.
2025년 6월, 아마존은 미국 펜실베이니아주에만 200억 달러 규모의 AI 데이터센터 캠퍼스 투자 계획을 발표했으며, 2025년 7월, 메타는 2026년 가동 예정인 세계 최초 멀티 기가와트 규모의 데이터센터 ‘프로메테우스(Prometheus)’ 건설 계획을 밝혔다. 미국 트럼프 대통령의 AI 실행 계획(AI Action Plan) 도입으로 AI 기술 스택과 데이터센터 개발에 대한 정치적 지지와 규제 완화가 함께 진행되고 있다.
모든 이해관계자가 공통으로 지적하는 문제는 향후 5년간 612테라와트시(TWh)에 달하는 전력 수요 증가와 탄소배출량 3~4% 증가라는 기후변화 심화 문제다. 하지만 일반에 잘 알려지지 않은 더 큰 문제는, AI 데이터센터가 직면한 사이버 위협 확대로 인해 운영사와 기업 사용자가 명성, 재정, 규제 측면에서 큰 리스크에 노출되고 있다는 점이다.
공격 표적이 되는 AI 데이터센터
전통적인 데이터센터와 마찬가지로, AI 데이터센터 역시 하드웨어, 네트워크, 스토리지, 데이터, 소프트웨어 구성요소를 모두 갖추고 있어, DDoS, 랜섬웨어, 공급망 공격, 사회공학 공격 등 흔한 사이버공격의 대상이 된다. 또한 데이터센터는 사이드 채널 공격(side-channel attack)에 특히 취약한 것으로 알려져 있다. 이는 시스템의 프로세스나 실행을 분석하거나 간섭하기 위해 팬, CPU, 메모리 등 하드웨어에서 노출되는 정보를 악용하는 공격 방식이다. 실제로 2025년 7월, AMD는 CPU 수준 활동과 데이터 아키텍처 정보를 유출할 수 있는 4건의 새로운 취약점을 발견했다고 발표했다.
AI 데이터센터가 직면한 고유 위협
그러나 전통적인 데이터센터와 비교할 때, AI 데이터센터는 하드웨어 구성, 데이터 성격, 목적 측면에서 더 다양한 보안 위협에 노출된다.
일반 데이터센터는 CPU와 GPU를 혼합해 사용하지만, AI 데이터센터는 항상 GPU를 사용한다. 이는 생성형 AI 작업에 더 높은 연산 능력과 병렬 처리 기능이 요구되기 때문이다. 이와 함께, ASIC(Application-Specific Integrated Circuits) 및 FPGA(Field-Programmable Gate Arrays) 역시 AI 작업에 최적화된 커스터마이징 가능한 고성능 하드웨어로 활용된다. 구글은 딥러닝 전용 ASIC인 TPU(Tensor Processing Unit)를 자체 개발한 바 있다.
하지만 이러한 고성능 하드웨어 역시 CPU처럼 사이드 채널 공격에 취약하다. 2025년 1월에는 TPUXtract라는 TPU 전용 사이드 채널 공격 기법이 발견됐으며, 이는 AI 모델의 파라미터를 추론할 수 있도록 데이터 누출을 유발하는 공격이다.
또한 GPU는 메모리 수준 보안이 미흡해, 훈련 데이터와 모델 가중치에 접근하는 메모리 공격에 더 취약하다. GPU는 프로세스 간 메모리를 완전히 격리하지 못해, 공격자가 이전 프로세스에서 남은 정보를 통해 민감한 데이터에 접근할 가능성이 있다. 나아가, GPU 메모리에서 악성 코드를 실행하면서 기존 CPU 기반 보안 툴을 우회할 수 있는 전용 멀웨어도 존재한다.
데이터 측면에서는, AI 모델, 모델 가중치, 훈련 데이터를 모두 포함하고 있는 AI 데이터센터는 모델 탈취, 민감 정보 유출, 모델 자체를 겨냥한 공격의 표적이 된다. 모델 정보 유출은 기밀성과 무결성을 해치는 위험을 동반하며, 데이터 중독(data poisoning), 모델 중독(model poisoning) 등 모델 손상 공격은 AI 시스템의 정확도를 크게 떨어뜨릴 수 있다. 또한 모델 역공학(model inversion), 모델 탈취(model stealing) 공격은 모델 구조나 학습 데이터에 대한 정보를 노출시킬 수 있다. 이러한 손상된 모델은 편향되거나 잘못된 결과를 초래해 고객사 운영에 심각한 영향을 줄 수 있다.
지정학적 위협과 공급망 위험
AI가 국가 안보와 경제 경쟁력의 핵심 기술로 자리 잡으면서, 자국 내에서 AI 역량을 구축하고 통제하려는 글로벌 주권 AI 경쟁도 본격화되고 있다. 이로 인해 AI 데이터센터는 외국 정부의 첨단 사이버 공격 표적이 되고 있다.
AI 데이터센터는 가동 전부터 공급망 공격 및 사보타주 위험에 노출돼 있다. 중국 기업이 독점적으로 공급하는 부품이 다수이기 때문이다. 가동 이후에는, 국가 차원의 해커 기업이 AI 모델을 탈취하거나 침입할 수 있는 능력을 갖고 있으나, 상업용 데이터센터 운영사는 이에 대항할 방어 역량을 충분히 갖추지 못한 경우가 많다.
한편, 미국 외 지역에서도 초대형 AI 데이터센터 건설이 활발히 진행 중이다. 대표 사례로 미국-아랍에미리트(UAE) 공동 프로젝트가 있으며, 미국 외 최대 규모 AI 데이터센터 건설 계획이다. 그러나 페르시아만 지역은 중국의 디지털 실크로드 2.0의 일환으로, 중국산 5G 기술과 도시 감시 기술이 광범위하게 적용돼 있어, 중국 정부가 이 지역 AI 데이터센터에 접근할 가능성이 있다는 우려가 제기되고 있다.
사이버보안 책임자가 고려해야 할 사항
이처럼 AI 데이터센터가 직면한 다층적 위협에 대응하기 위해, 사이버보안 책임자와 의사결정권자는 AI 데이터센터 운영사의 정책이 하드웨어, 데이터, 지정학적 보안을 포괄하는 기술적 조치를 요구하는지 철저히 검토해야 한다.
예시로는 다음과 같은 정책이 포함된다.
- - 공급망 보안 위험을 줄이기 위한 하드웨어 검사 강화
- - 사이드 채널 공격을 방어하기 위한 연산 장비용 패러데이 케이지 또는 차폐실 배치
- - AI 모델의 백도어와 취약점을 식별하기 위한 연속적인 AI 감시 및 감리 체계 구축
- - 외국 정부의 침투를 방지하기 위한 인사 검증 절차 강화
또한 AI 도구를 실제로 배포하기 전, 해당 AI 워크로드가 호스팅되는 데이터센터의 지리적 위치와 공급망을 파악하고, 이 정보가 국가 차원의 사이버 공격 또는 감시에 따른 보안 위험을 증가시키는지를 평가해야 한다.
특히 미국의 경우 트럼프 행정부 하에서 AI 데이터센터 보안에 대한 정부 차원의 감독 체계가 충분히 마련되지 않은 상황이다. 기업의 사이버보안 책임자는 정책과 기술 양면에서 자율적인 보안 점검과 대응 역량을 강화해야 하는 책임이 커지고 있다.
dl-itworldkorea@foundryco.com
No Author editor@itworld.co.kr
저작권자 Foundry & ITWorld, 무단 전재 및 재배포 금지
이 기사의 카테고리는 언론사의 분류를 따릅니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
