컨텐츠 바로가기

    03.10 (화)

    이슈 인공지능 시대가 열린다

    [AI돋보기] "AI가 좌표 찍으면 인간이 쏜다"…현실화한 '알고리즘 전쟁'

    댓글 첫 댓글을 작성해보세요
    주소복사가 완료되었습니다

    미국 등 AI 실전 투입…표적 식별부터 타격까지 '초단기전'

    전장 통제권 우려 속 AI 군비 통제 국제규범 '시급'

    연합뉴스

    시리아에 떨어진 이란 미사일
    (로이터=연합뉴스)


    (서울=연합뉴스) 심재훈 기자 = 현대 전장의 정보 분석과 표적 식별 과정에 인공지능(AI)이 핵심 기술로 자리 잡고 있다.

    위성 사진, 드론 영상, 각종 센서 데이터를 AI가 분석해 잠재적 위협 요소를 신속하게 추려내는 이른바 '알고리즘 전쟁'이 전장의 새로운 양상으로 떠올랐다.

    미국이 '프로젝트 메이븐(Project Maven)'을 통해 군사 데이터 분석의 효율성을 높인 데 이어 최근 주요 분쟁 지역에서도 AI 기반 타격 보조 체계가 활용되는 추세다.

    이는 방대한 데이터를 실시간으로 처리해 전술적 우위를 점하려는 시도로 볼 수 있다.

    하지만 정보 처리 속도를 극대화했다는 군사적 효용성 이면에는 AI가 무력 사용 과정에 개입하면서 발생하는 윤리적·법적 책임 소재 논란도 함께 커지고 있다.

    ◇ 데이터 분석에서 '전장 지휘 통제' 보조로 진화

    미 국방부는 2017년 방대한 영상 정보에서 목표물을 식별하는 컴퓨터 비전 알고리즘 개발을 위해 프로젝트 메이븐을 출범시켰다.

    초기 영상 판독 보조 도구로 시작된 이 프로젝트는 현재 미 국가지리정보국(NGA)과 최고디지털·AI책임관실(CDAO)로 이관되며 미군의 데이터 및 AI 인프라 고도화에 기여하고 있다. 미 국방부의 합동전영역지휘통제(CJADC2) 구상과 맞물려 각 군의 센서 정보를 융합하는 데이터 기반 역할을 수행 중이다.

    연합뉴스

    아랍에미리트에서 치솟는 연기
    (로이터=연합뉴스)


    이러한 기술적 변화는 실제 전장에서도 확인된다.

    우크라이나 전장에서는 미국 데이터 분석 기업 팔란티어의 소프트웨어와 우크라이나군의 전장 인식 시스템 '델타(Delta)'가 결합해 표적 식별 및 분석 시간이 크게 단축된 것으로 알려졌다.

    전통적인 군사 작전에서 표적 발견부터 지휘부의 최종 결정까지 소요되던 시간을 데이터 통합과 AI 분석을 통해 비약적으로 줄인 것이다.

    팔란티어 역시 자사 소프트웨어가 전장에서의 의사결정을 지원하는 데 사용되고 있다고 밝힌 바 있다.

    ◇ '표적 자동화' 논란…인간 개입의 실효성 쟁점

    AI의 군사적 활용을 두고 가장 뜨거운 논쟁이 벌어진 곳은 이스라엘과 하마스 간의 분쟁이다.

    영국 가디언과 이스라엘 탐사매체 '+972 매거진' 등 일부 외신은 익명의 정보 소식통을 인용해 이스라엘군이 '하브소라(Habsora)'와 '라벤더(Lavender)'라는 AI 시스템을 활용해 잠재적 타격 대상을 생성하고 있다고 보도했다.

    이들 매체는 전쟁 초기 AI가 생성한 명단을 정보장교가 검토하고 승인하는 데 걸린 시간이 1건당 수십 초에 불과했으며 AI 모델의 오탐 가능성으로 인해 민간인 피해 우려가 있다는 의혹을 제기했다.

    연합뉴스

    미사일 공격 받은 이스라엘
    (EPA=연합뉴스)


    논란이 확산하자 이스라엘방위군(IDF)은 강력히 반박했다.

    IDF는 공식 성명을 통해 "AI 시스템은 정보 분석을 돕는 데이터베이스 도구일 뿐 타격을 결정하는 주체가 아니다"라며 "모든 타격 결정은 국제법에 따라 지휘관이 독립적으로 내리며, 외신이 제기한 오류율 주장 등은 사실과 다르다"고 일축했다.

    ◇ 책임 소재 규명 한계…'블랙박스' 우려

    미국과 이스라엘 등은 무기 체계 운용에 있어 "최종 결정은 항상 인간이 내린다"는 점을 강조하며 AI를 '결심 보조 도구'로 규정한다.

    그러나 인권 단체와 군사 전문가 일각에서는 우려의 목소리를 낸다.

    AI가 처리한 방대한 정보를 인간이 짧은 시간 내에 검증하고 승인하는 구조에서는 '의미 있는 인간 통제'가 훼손될 수 있다는 지적이다.

    특히 딥러닝 기반 AI의 특성상 의사결정 과정을 외부에서 완벽히 역추적하기 어려운 '블랙박스' 현상이 문제로 꼽힌다.

    시스템 개발자나 운용 알고리즘이 기밀로 취급되는 상황에서 오폭 등 예기치 않은 결과가 발생할 경우 현장 지휘관과 시스템 제공자 중 누구에게 법적 책임을 물을지 모호해진다는 것이다.

    이처럼 상업용으로 개발된 첨단 기술이 군사적 목적으로 활용되는 이른바 '이중용도' 경향이 짙어지면서 인공지능 및 자율무기 체계에 대한 국제사회의 규범 마련 논의도 속도를 내고 있다.

    우리나라와 네덜란드 등은 2023년 헤이그에서 열린 제1차 '군사 분야 책임 있는 AI(REAIM)' 고위급 회의에 이어 지난 2024년 9월 서울에서 제2차 회의를 개최하며 AI 군사 이용의 국제 규범 논의를 주도했다.

    연합뉴스

    연기가 치솟는 이란 테헤란
    (EPA=연합뉴스)


    해당 회의에서는 AI 무기 체계의 신뢰성 확보, 인간 통제력 유지, 법적·윤리적 책임 문제 등이 핵심 의제로 다뤄졌다.

    미국도 REAIM을 계기로 '군사 분야 AI의 책임 있는 사용을 위한 정치적 선언'을 주도하며 다수 국가의 참여를 독려하고 있다.

    보안 및 디지털 정책 분야의 한 전문가는 "전장의 데이터화와 AI 분석 도입은 이미 거스를 수 없는 현실"이라며 "군사적 목적의 AI 활용 시 알고리즘의 신뢰성을 검증하고 인간의 책임 범위를 명확히 하는 국제적 통제 장치가 조속히 도입돼야 한다"고 말했다.

    president21@yna.co.kr

    ▶제보는 카카오톡 okjebo
    ▶연합뉴스 앱 지금 바로 다운받기~
    ▶네이버 연합뉴스 채널 구독하기
    <저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>
    기사가 속한 카테고리는 언론사가 분류합니다.
    언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.