<이미지를 클릭하시면 크게 보실 수 있습니다> |
특히 본회의 첫 행사에는 ▲이영수 공군참모총장 ▲프레데릭 추 싱가포르 국방부차관보 ▲마이크 베일러 록히드마틴 데이터AI최고책임자 ▲사이드 알다헤리 두바이대 미래학연구소장 ▲폴 샤레 신미국안보(CNAS) 총괄부사장 겸 연구소장 등 민·관·학계의 주요 관계자들이 함께 'AI가 국제 평화와 안보에 미치는 영향'을 주제 삼아 전체 행사를 향한 화두를 던졌다.
이 자리에서 이영수 공군참모총장은 "러·우 전쟁을 비롯해 AI를 이용한 저비용 무기가 최근 몇 년 사이 다양하게 개발됐으며 AI 기반의 고유 군사시스템이 만들어지기도 했다. 이를 통해 적군에 대해 무기, 위치 등 보다 정밀한 적보를 식별할 수 있게 됐으며 무인기 운영이나 사이버 안보 분야에도 적용 가능하게 됐다"며 "현재 AI를 주도하는 국가들이 관련 능력을 적극적으로 확대 중이다. 중요한 건 이 과정에서 전쟁 양식과 방식이 완전히 바뀔 것이며, 국제적 협력과 준비 없이는 인류에게 큰 위협이 될 것이기에 (군사적 AI의 평화적 사용) 이런 논의가 필요한 시기"라고 말했다.
산업계의 민간 대표격으로 참여한 록히드마틴의 마이크 베일러도 국제적 논의의 중요성을 강조했다. 그는 "록히드마틴은 자체적인 AI 작전 시스템을 개발했고, 미국 국방부와도 협력해 5개의 AI 윤리원칙을 마련해 지속 가능성과 신뢰성 유지에 노력하고 있다"며 "국제적으로도 공통적, 상식적인 가이드라인을 내놓는 노력이 필요하다. AI가 빠른 속도로 발전하는 만큼 대응책에 대한 지속적 업데이트는 물론이고 군사 분야 고객사 교육 및 정책 입안자들이 'AI로 할 것과 하지 않을 것'에 대한 이해를 갖추도록 조치하는 것도 필요하다"고 말했다.
<이미지를 클릭하시면 크게 보실 수 있습니다> |
알다헤리 두바이대 미래학연구소장은 군사적 AI 활용이 가져올 책임론과 국가적 갈등 가능성을 짚었다. 그는 "앞으로 자율무기 시스템, 이른바 킬러 로봇이 인간의 참여나 개입 없이도 전투가 가능해지는 시대가 온다. 이때 무기의 살상 결과물을 두고 누가 책임질 것인가? 이로 인한 국가간 분쟁이나 갈등, 군비경쟁은 더욱 고조될 것"이라면서 "이때 가이드라인 제정도 바람직하지만 말은 쉽고, 행동은 어렵다. 실제로 어떻게 이행하도록 만들 것인지도 중요한 문제"라고 지적했다.
폴 샤레 CNAS 총괄부사장은 군사용 AI의 정밀한 트레이닝도 중요하다고 봤다. 그는 "어쩌면 AI가 전쟁터를 조금 더 인간적으로 만들 수도 있다. 가령 AI로 상대가 든 것이 무기인지 삽인지 식별하도록 하고, 또는 상대가 전투요원인지 주변 민간인에 미칠 피해는 어느정도인지도 판별하도록 만들 수 있을 것"이라며 "인간은 AI 활용으로 인해 초래될 결과에 대한 책임성을 포기하지 말아야하기 때문"이라고 강조했다.
이밖에도 참석자 모두가 군사적 AI 활용의 양날성을 언급하며, 올바른 활용 방향성 제정이 중요하다고 입을 모았다. 이와 관련해 추 싱가포르 국방차관보는 "사람들에게 (군사적 AI를) 쓰지 말라고 제안하는 건 답이 될 수 없다. 군사적 AI 이용에 대한 책임, 그 가운데 인간은 무엇을 판단할지, 또한 모든 부분을 AI 개발측이 책임질 수 있도록 해야 할 것"이란 생각을 밝혔다. 샤레 부사장 또한 "모든 선택권은 인간에게 있다. AI가 굉장히 많은 것을 할 수 있지만, 스스로 규범을 정할 수 없으며 그 일은 우리가 직접 하는 것임을 기억해야 한다"고 강조했다.
- Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지 -
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.