요즘 전쟁에선 인공지능(AI) 기술이 승패를 가르는 핵심 자산이다. 방대한 위성사진과 소셜미디어, 드론 영상을 실시간 분석해 적군의 이동 경로를 파악하고 정밀 타격 지점을 찾아내는 데 AI 기술이 활용된다. 저비용으로 살상력을 높이는 데 AI가 결정적인 역할을 한다. ‘킬러 로봇’과 같은 치명적 ‘자율살상무기’가 현실화하면 인류를 파멸적 위험으로 몰아넣을 수 있다는 경고도 나온다. AI 무기화는 윤리적 문제를 낳기 마련. 미국 정부와 앤스로픽이 AI의 군사적 사용 범위를 놓고 벌이는 갈등이 대표적이다.
▷앤스로픽은 ‘가장 안전한 AI’를 지향하지만 이 회사 챗봇 클로드는 군사용으로 각광받는다. 다양한 언어와 방언으로 된 문서, 첩보 보고, 작전 계획서를 이해하고 요약 비교하는 능력이 뛰어나 미 국방부 기밀 작전에 사용되는 유일한 AI 모델이다. 올해 초 니콜라스 마두로 베네수엘라 대통령 생포 작전 때도 팔란티어와 함께 위성 정찰, 첩보 보고 등을 요약 분류해 지휘관의 질문에 빠르게 답하는 ‘AI 참모’ 역할을 했다고 한다. 클로드, 챗GPT, 제미나이의 3자 가상 전쟁에선 클로드가 8승 4패로 최고 승률을 올렸다는 영국 연구팀의 실험 결과도 나왔다.
▷클로드가 이번 이란 공습에도 활용됐다는 보도가 나온 가운데 도널드 트럼프 미 대통령이 돌연 모든 연방 정부 기관에 클로드 사용을 6개월간 중단하라고 지시했다. 클로드를 ‘합법적인 모든 용도’에 제한 없이 활용하게 해달라는 국방부 요구를 앤스로픽이 거절했기 때문이다. 미국 정부는 군사작전 결정권은 대통령과 군에 있는데 민간 기업이 회사 정책을 군에 강요하고 있다고 비판한다. 반면 앤스로픽은 AI 기술이 인간의 개입 없는 완전 자율살상무기 체계에 활용되는 것은 허용할 수 없다는 입장이다.
▷미 정부 주도의 군사 기술 개발에 핵심 역할을 했던 실리콘밸리는 AI 기술에 관한 한 ‘반전(反戰)’ 정서가 강하다. 2018년엔 구글이 국방부의 AI 화상 인식 기술 개발에 참여한 사실이 알려져 비난이 쏟아지자 ‘살상용 AI는 만들지 않는다’는 원칙을 발표하고 사업을 포기한 적이 있다. 그만큼 AI의 위력이 원자폭탄을 뛰어넘기 때문이다. 챗GPT, 제미나이, 클로드를 써서 시행한 전쟁 실험에서는 21번의 전쟁 중 20번의 전쟁에서 핵무기를 쏴 충격을 줬다. AI가 핵을 공멸의 무기가 아닌 승리의 수단으로 취급했다는 것이다.
▷이번 앤스로픽 사태를 두고 빅테크 기업들은 갑론을박 중이다. “중국과 러시아가 윤리적 제약 없이 AI 무기를 만들고 있는데 우리만 손 놓고 있을 순 없다”는 주장과 “AI가 인류 최고이자 최후의 발명품이 돼서는 안 된다”는 반박이 교차한다. 민간의 혁신 기술이 주력 전략 자산으로 동원되는 ‘기술 징집’의 시대에 그 통제 권한은 누가 가져야 하는지 고민이 깊어지고 있다.
이진영 논설위원 ecolee@donga.com
Copyright Ⓒ 동아일보. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
