컨텐츠 바로가기

06.02 (일)

인공지능이 핵무기 발사한다면?…미리 보는 ‘AI 서울 정상회의’

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
한겨레

게티이미지뱅크

<이미지를 클릭하시면 크게 보실 수 있습니다>


인공지능을 갖춘 군사 관제센터는 인간의 명령 없이도 스스로 핵무기를 발사할 수 있을까? 신약 개발에 쓰일 수 있다던 인공지능이 수백만의 생명을 위협하는 생물학 무기를 만들어낸다면 어떨까? 회사 면접에서 나를 떨어뜨린 인공지능에게 손해배상을 청구할 수 있을까? 디지털 교과서가 학생들의 시선을 체크해 “수업에 집중하지 않고 있습니다”라고 점수를 낮게 준다면 어떻게 될까?



생성형 인공지능(AI)이 무서운 속도로 발전하고 있다. 스스로 생각하고 학습해 통제가 불가능한 ‘프런티어 에이아이’의 출현도 머지 않았다는 우려 속에, 여러 나라에선 공통의 인공지능 규범을 만들어 관리해야 한다는 목소리가 높아지고 있다. 산업 발전과 국가 안보를 이유로 에이아이 개발에 박차를 가해 온 나라들은 규제에서도 주도권을 쥐려 맞선다. 5월 21~22일 한국에서 열리는 ‘인공지능 서울 정상회의’ 개막을 앞두고 긴장감이 감도는 이유다.





■ 세계는 ‘인공지능 규범’ 주도권 경쟁 중





‘인공지능 서울 정상회의’는 지난해 영국에서 개최된 ‘인공지능 안전성 정상회의’의 후속 회의다. 첫날 정상회의는 온라인으로 진행된다. 22일엔 성북구 한국과학기술연구원(KIST)에서 대면 회의인 장관 세션이 열리고, ‘인공지능글로벌포럼’도 함께 개최해 인공지능 안전성에 대한 논의를 이어간다. 독일, 프랑스, 스페인, 싱가포르 등 장관급 참석이 예정돼 있고, 오픈에이아이와 구글, 마이크로소프트, 앤트로픽 등 빅테크 기업도 한국을 찾는다.



영국에서 열린 첫 회의는 미국, 중국, 유럽연합을 포함한 무려 28개 정부가 인공지능이 불러올 위험에 대비해 세계적으로 협력하자는 ‘블레츨리 선언’에 서명해 눈길을 끌었다. 나라마다 규제 범위와 강도를 놓고 의견이 다른 탓에, 1차 땐 위험성에 대한 인식을 공유하고 안전성 인증 규범을 만들자는 원론적 논의에 그쳤다. 이번 정상회의에선 구체적으로 무엇을 위험하다고 봐야 할 것인가, 또 어떻게 통제할 것인지에 대한 의견을 모아야 한다.



전창배 국제인공지능·윤리협회(IAAE) 이사장은 “기존엔 인공지능의 신뢰성이 문제였다면, 지난해 말부터 안전성 문제가 구체화하기 시작했다”며 “인공지능 윤리와 법제화 주도권을 가져가려는 각국의 경쟁이 치열하다”고 말했다. 유럽연합(EU)은 지난 3월 강력한 처벌 규정을 담은 인공지능법을 세계 최초로 통과시켰다. 미국은 지난해 11월 이후 잇따른 인공지능 관련 ‘행정 명령’을 내리고 있다. 중국은 지난해 일대일로 국가들을 중심으로 기술 오용을 막기 위한 ‘글로벌 인공지능 거버넌스 이니셔티브’를 제안했다. 유엔에서는 3월 인공지능의 안전한 사용에 관한 국제적인 합의를 시급히 마련해야 한다는 내용의 결의안을 냈다.





■ “세계 공통 ‘안전 규범’, 한국도 목소리 내자”





각국이 앞다퉈 ‘안전한 인공지능 규범’을 제시하려는 이유는 뭘까. 인공지능 ‘게임의 규칙’을 지배해야지만 자국 경제와 국가 안보에 유리하단 판단에서다. 인공지능 학습에 필요한 방대한 데이터가 다른 나라의 독과점 기업에게 점유될 경우 안보 위협이 될 수 있다는 속내도 존재한다. 유럽은 빅테크 기업이 고위험으로 분류한 인공지능 서비스를 하려면 학습한 데이터 세트 등을 공개해야 한다는 ‘투명성’ 요구를 하고 있다. 미국은 행정명령을 통해 미국 기업의 인공지능 기술을 이용하는 경우 외국 기업도 미국 정부에 안전성 조치를 취했는지 보고하라고 요구했으며, 클라우드 서비스 제공자에게 외국 고객 명단 신고를 의무화했다.



각국 정부 주도하에, 인공지능 안전성 평가 검증 체계를 만들기 위한 ‘인공지능 안전연구소’가 속속 세워지는 중이다. 미국, 영국, 일본, 캐나다, 싱가포르 등 5개 국가가 설립했으며 미국과 영국은 연구소 간 상호협력을 체결했다. 우리 정부도 연구소 설립 추진 중이다. 우리 기업들도 장기적으로는 안전성을 요구하는 흐름에 대비해야 한다.



엄열 과기정통부 정보통신정책관은 “앞으로 안전한 인공지능이 되지 않으면 (기업도) 시장에서 살아남기 힘들다. 신뢰할 수 있고 안전한 인공지능이 되어야 리스크를 최소화하고 살아남을 수 있다”고 최근 기류를 전했다.



한국의 입장은 처벌이 중점인 유럽연합보다는 자율 규제에 좀더 무게를 싣고 있다. 이번 서울 인공지능 정상회의는 1차 때와 달리 회의 이름에서 안전성을 뺐다. 안전성 뿐 아니라 혁신, 포용까지 담겠다는 뜻이다. ‘기술적으로 엄격한 안전성·투명성 규제를 들이밀어 사다리 걷어차기를 하는 것 아니냐’는 인공지능 후발 주자들의 불만을 다독이고, 규범 주도권 경쟁의 세를 불리는 차원으로 풀이된다. 김명주 서울여대 정보보호학과 교수는 “수용 불가능한 규제가 되면 중국 등이 빠져버린 서방 국가들만의 합의가 될 수 있다”며 “인공지능 사용을 포기하지 않는, 규제의 적절한 선을 찾아내는 것이 관건”이라고 말했다. 즉 이번 정상회의에 얼마나 많은 나라가 참여할 지도 앞으로의 흐름을 예측할 수 있는 판도다.



정유경 기자 edge@hani.co.kr 박지영 기자 jyp@hani.co.kr



▶▶한겨레 서포터즈 벗 3주년 굿즈이벤트 [보러가기]
▶▶한겨레 뉴스레터 모아보기▶▶[기획] 누구나 한번은 1인가구가 된다


기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.