컨텐츠 바로가기

05.20 (월)

“北, 서울 공격 때 AI에 방어 맡겨도 될까”… 샘 올트먼 “그런 결정 하는 일 없길 바라”

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

“회색지대 복잡… 따질 질문 많아”

핵무기 발사 결정권 대해서는

“AI에 주자는 주장 들은 적 없어”

세계일보

<이미지를 클릭하시면 크게 보실 수 있습니다>


“오픈AI가 그런 결정을 하지 않아도 되길 바랍니다.”

생성형 인공지능(AI) 챗GPT 개발사 오픈AI 최고경영자(CEO) 샘 올트먼 이 전쟁을 AI에 맡겨도 되느냐에 대한 질문에 어렵게 답을 내놓았다.

올트먼은 7일(현지시간) 워싱턴 싱크탱크 브루킹스연구소가 ‘AI 시대의 지정학적 변화’를 주제로 개최한 화상 대담에서 다소 엉뚱한 질문을 받았다. 브루킹스연구소의 안보 전문가로 한반도 문제에도 정통한 마이클 오핸런 선임연구원은 “인간이 빠르게 대응할 수 없기 때문에 AI가 (미사일 등의) 발사를 결정하는 방어용 로봇 군단을 사용하는 경우를 상상해볼 수 있다”면서 “대한민국 서울에서 북한의 포격과 미사일 포격에 직면한 헬리콥터를 예로 들어보자”고 운을 뗐다. 그는 북한이 서울을 향해 100대의 군 항공기를 발사한다고 가정하고, AI 시스템이 유인 군 항공기를 격추해 군 항공기를 조종하는 북한 조종사 100명을 사살할 수 있다고 가정했다. 이는 방어 시스템이지만 치명적인 인명 손실로 이어질 수 있다면서 AI에게 사람을 죽이는 결정을 맡겨도 되느냐는 취지로 질문했다.

올트먼은 “항공기가 한국에 접근하고 있고 인간이 의사 결정에 관여할 시간이 없을 때 AI가 요격 결정을 할 수도 있고 안 할 수도 있지만, 그런 공격이 일어나고 있다고 정말 확신할 수 있나? 어느 정도로 확실해야 하나? 예상되는 인명 피해는? 회색 지대의 어느 지점에 선을 그어야 하는가? 정말 (우리가 따져봐야 할) 질문이 많다”고 반문했다.

이어 “나는 누군가 ‘AI가 핵무기 발사를 결정할 수 있어야 한다’고 주장하는 것을 들은 적이 없다”면서 “또한 누가 접근하는 미사일을 요격할 때처럼 정말 빠르게 행동해야 할 때 AI를 사용해서는 안 된다고 주장하는 것도 들은 적이 없다. 그런데 그 사이에 이런 지대도 있다”고 설명했다. 올트먼은 이런 내용은 자신의 전문 분야가 아니라며 “오픈AI에서 이런 결정을 하지 않아도 되길 바란다”고 덧붙였다.

올트먼은 지정학적 경쟁이 AI 산업에 미치는 영향에 대한 질문에는 “우리는 매우 분명히 미국과 우리 동맹의 편”이라고 답했다.

올트먼은 이어 “인도주의적인 면도 있는데 우리는 이 기술이 인류 전체에 득이 되기를 원하지, 우리가 동의하지 않는 지도부가 있는 특정 국가에 살게 된 사람들에게 득이 되는 것을 원치 않는다”고 덧붙였다.

워싱턴=박영준 특파원 yjp@segye.com

ⓒ 세상을 보는 눈, 세계일보
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.