컨텐츠 바로가기

    02.24 (화)

    이슈 인공지능 윤리 논쟁

    자사 AI 기술 병기로 쓰지 말랬더니 “공급망 배제”···앤트로픽 대 펜타곤 ‘윤리 갈등’[뉴스분석]

    댓글 첫 댓글을 작성해보세요
    주소복사가 완료되었습니다

    ‘안전하고 윤리적인 AI’ 표방한 앤트로픽 향해

    미 국방부, 공급망 위험 업체 지정 방안 검토 중

    마두로 축출 때 클로드 활용 드러나며 갈등 점화

    경향신문

    로이터연합뉴스

    <이미지를 클릭하시면 크게 보실 수 있습니다>


    미 국방부가 자사 기술을 자국민 감시나 ‘완전 자율 살상무기’(AWS)에 활용하지 말라고 요구한 인공지능(AI) 스타트업 앤트로픽을 중국과 같은 적대국 기업에나 적용하는 ‘공급망 위험 업체’로 지정하는 방안을 검토 중인 것으로 알려졌다. AI를 활용한 전투·무기개발이 지나치게 빨리 확산하고 있는데 반해 국제적 규범은 부재한 상황에서, 이번 사안은 AI 전쟁의 안전·윤리 원칙에 대한 중요한 시험대가 될 것으로 보인다.

    18일(현지시간) 월스트리트저널(WSJ)에 따르면, 국방부는 AI 윤리 규정 준수를 요구한 앤트로픽이 ‘워크(woke·정치적 올바름을 비꼬는 말) AI’를 추구하고 있다면서 이 회사를 공급망 위험 업체로 지정하는 방안을 검토 중이라고 보도했다. 공급망 위험 업체로 지정되면 국방부와 거래하는 모든 계약·공급업체는 앤트로픽의 AI 모델 ‘클로드’를 사용하지 않는다는 사실을 국방부에 인증해야 한다.

    국방부와 앤트로픽의 갈등은 지난 1월 미군이 니콜라스 마두로 베네수엘라 대통령 생포 작전인 ‘확고한 결의’을 벌일 당시 클로드를 활용한 사실이 드러나면서 시작됐다. 현재 세계 여러 국가는 경쟁적으로 AI를 기존 무기체계와 군사 작전 지휘 시스템에 통합하려는 움직임을 보이고 있다. 특히 미 국방부는 지난해 구글, 오픈AI, 앤트로픽, xAI 등과 수억달러에 달하는 협약을 체결했다. 단순 지시 수행에 머무는 AI가 아니라, 자율적 판단과 임무 수행이 가능한 AI 무기체계 구축에 박차를 가하기 위해서다.

    클로드는 현재 국방부가 기밀 정보를 다룰 수 있도록 승인해 준 유일한 대규모 언어 모델(LLM)이다. 안보 분야에 강점을 가진 앤트로픽은 국방부 주요 거래업체인 AI 기반 데이터 분석 기업 팔란티어와 일찌감치 파트너십을 체결했다. 다만 평소 ‘안전하고 윤리적인 AI’를 표방해 온 앤트로픽은 자사 모델이 AWS 개발이나 폭력적인 군사 작전에 직접적으로 사용되는 것을 제한하는 엄격한 가이드라인을 유지해 왔다.

    이는 전쟁에서 AI를 활용할 경우 법적·윤리적·안보적 측면에서 중대한 취약점을 드러낼 수 있다는 우려가 해소되지 않았기 때문이다. 현재 미국 등 세계 각국은 LLM을 지휘 체계에 통합한 ‘킬러 로봇 편대’의 개발에 박차를 가하고 있다. 이는 기존처럼 인간이 지정해 준 경로에 따라 공격하는 AI 무기와는 차원이 다르다.

    예를 들어 미 정보기술(IT) 매체인 와이어드는 지난해 미 방산업체 안두릴이 개발한 AWS 시연 장면을 보도한 바 있다. 사람이 “머스탱, 요격!”이라고 명령하자, LLM이 인간의 명령을 수행하기 위해 ‘머스탱’이란 암호명이 붙은 드론 편대와 통신하기 시작했다. 스스로 판단해서 개별 드론 하나하나에 업무를 배분한 AI가 마침내 감정 없는 여성의 목소리로 “머스탱, 요격 대형”이라고 지시하자 1분만에 목표물이 파괴됐다. 즉, AI가 스스로 작전을 짜면서 ‘참모’ 역할을 한 것이다.

    유엔은 “AI의 도움으로 로봇들이 자율적인 편대를 형성해 대규모로 여러 목표물을 동시에 공격할 수 있게 됐다”며 “문제는 이러한 시스템에서 인간의 통제를 유지하는 것이 불가능할 수 있다는 것”이라고 우려를 표명한 바 있다. 국제법을 위반하거나 오인 공격이 이뤄지면 그 책임을 AI에 물을 수는 없기 때문이다.

    경향신문

    유엔 홈페이지

    <이미지를 클릭하시면 크게 보실 수 있습니다>


    또한 AI는 결국 인간이 남긴 방대한 과거 기록을 학습한 모델인 만큼 인간이 가진 ‘인지적 편향’을 그대로 답습할 수 있다. 실제 지난해 스탠퍼드 대학이 챗GPT, 클로드 등 LLM에 전략적 판단을 요구하는 전쟁 시뮬레이션 실험을 한 결과, 거의 모든 AI 모델이 무차별적으로 화력을 사용하고, 심지어 핵무기 사용까지 고려하는 등 위기를 더욱 악화시키는 경향을 나타냈다.

    이 같은 ‘인지적 편향’은 여러 형태로 나타날 수 있다. 이스라엘이 가자지구에서 AI를 활용해 하마스 대원으로 추정되는 목표물을 추출했던 것처럼, 최근들어 AI로 공격 대상을 지정하는 경우가 늘어나고 있다. 그러나 유엔 전문가 그룹의 예비보고서는 “AI는 훈련 과정에서 의도치 않은 편견을 습득하기 때문에 목표물을 판단하는 기준에 성별, 연령, 인종 등의 요소가 포함될 가능성이 크다”고 우려를 표한 바 있다.

    이 때문에 유엔은 인간의 통제나 감독 없이 작동하는 AWS 시스템을 막기 위해 2026년까지 법적 구속력 있는 조약을 체결할 것을 촉구해왔다. 그러나 AI 전쟁에서 뒤처지지 않기 위해 기술 경쟁을 벌이고 있는 미·중 등 강대국들은 이에 별다른 호응을 보이지 않고 있다.

    국방부는 이 같은 우려에 대해 “AI가 인간의 의사결정을 대체하는 일은 없을 것이므로, 현실에서 그런 일은 일어나지 않을 것”이라고 주장한다. 하지만 이미 그 영역은 조금씩 모호해지기 시작했다. 과학자들은 미 국방부가 중국·러시아와의 경쟁에서 이기기 위해 너무 서둘러 AI를 군사 방어 체계의 핵심 요소로 편입시키려 하는 것에 우려를 표하고 있다고 폴리티코는 전했다.

    이 같은 상황에서 국방부와 앤트로픽의 이번 갈등이 어떻게 결론 나느냐는 중요한 선례가 될 가능성이 크다. 만약 앤트로픽이 윤리적 요구를 일부라도 관철하는 데 성공한다면, 구글·오픈AI 등 다른 AI 기업들도 비슷한 가이드라인을 요구할 수 있다. 반대로 국방부가 앤트로픽을 ‘공급망 위험 업체’로 지정하고 아무런 가이드라인이 없는 AI 업체에 계약을 넘긴다면, AI 전쟁 시대에서 윤리가 들어설 공간은 더욱 좁아질 것이다.

    워싱턴 | 정유진 특파원 sogun77@kyunghyang.com

    ▶ 매일 라이브 경향티비, 재밌고 효과빠른 시사 소화제!
    ▶ 더보기|이 뉴스, 여기서 끝나지 않습니다 → 점선면

    ©경향신문(www.khan.co.kr), 무단전재 및 재배포 금지

    기사가 속한 카테고리는 언론사가 분류합니다.
    언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.