컨텐츠 바로가기

04.13 (토)

이슈 IT기업 이모저모

"AI 규제가 더 큰 도전"…슈밋 구글 전 CEO가 내놓은 이 방법

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
“인공지능(AI) 규제를 위해 글로벌 협력을 강화해야 한다. ‘AI 안전에 대한 국제 협의체’(IPAIS, International Panel on AI Safety) 등 독립적이고 전문적인 국제기구를 창설해 장기적으로 위험성을 모니터링하고 조기 경보 기능을 구축해야 한다.”

에릭 슈밋 전 구글 최고경영자(CEO)는 지난 17일 중앙일보와 서면 인터뷰에서 “AI를 통제하는 것은 AI 기능을 개발하는 것보다 훨씬 더 큰 도전이 될 수 있다. 적절한 보호장치를 마련하면서 과잉규제 본능도 피해야 한다”며 이같이 밝혔다.

중앙일보

지난해 5월 에릭 슈밋 전 구글 최고경영자가 미국 캘리포니아에서 열린 밀켄 인스티튜트 글로벌 컨퍼런스에서 발언하는 모습. AFP. 연합뉴스.

<이미지를 클릭하시면 크게 보실 수 있습니다>



인터뷰는 한국국제교류재단(KF)과 국제전략포럼(ISF)이 서울에서 공동 개최한 ‘2024 ISF 글로벌 서밋’을 계기로 이뤄졌다. 에릭 슈밋이 설립한 ISF는 2020년부터 매년 전세계 차세대 과학인재를 선발·육성하고 있다. ISF 글로벌 서밋은 기술과 국제 문제 전문가를 중심으로 신진 리더를 선발해 분야 간 네트워크 구축을 목표로 하는 행사다. 슈밋은 오는 29일까지 한국에서 열리는 이번 행사에는 화상으로 참여한다. 다음은 일문일답.

Q : ISF 글로벌 서밋의 의의는.

A : ISF는 유망한 차세대 리더들의 네트워크를 만들어 다른 이들을 돕는 기회로 삼는 것을 목표로 한다. ‘기술’과 ‘지정학’의 연관성이 높아지는 가운데 두 분야 전문가가 만나 소통할만한 공간이 부족했다. ISF는 기술과 국제적 현안을 결합해 더 안전하고 자유로운 세계를 만들어갈 리더들의 네트워크를 지원하고자 한다.

Q : 올해는 최초로 한국에서 KF와 함께 행사를 여는데.

2016년 바둑 챔피언 이세돌과 알파고가 대결했던 구글 딥마인드 챌린지 매치를 위해 서울을 방문했던 좋은 기억이 있다. 역사적으로 AI 분야에서 한국의 위상을 고려할 때 올해 ISF 글로벌 서밋을 한국에서 KF와 함께 개최해 기쁘다. 또 이는 매우 자연스러운 일이다. 한국은 글로벌 기술 공급망에서 중요한 위상을 차지하고 있고, 인도·태평양 지역에서 역할을 확대하고 있다.

중앙일보

2016년 3월 구글 딥마인드챌린지를 앞두고 방한했던 에릭 슈밋 전 구글 최고경영자가 당시 바둑기사 이세돌, 데미스 하사비스 구글 딥마인드 대표와 기자회견을 하는 모습. 중앙DB.

<이미지를 클릭하시면 크게 보실 수 있습니다>



Q : AI의 위험성에 대해 지속해서 경고해왔다.

AI를 통제하는 것은 AI의 기능을 개발하는 것보다 훨씬 더 큰 도전이 될 수 있다. AI가 우리 사회의 거의 모든 측면을 긍정적으로 혁신할 잠재력을 가지고 있다고 확신하지만, 위험도 분명 존재한다. 때문에 AI 규제에 대한 글로벌 협력을 강화해야 한다. 한 국가가 완벽한 대책을 마련한다고 해도 다른 국가가 이를 따르지 않는다면 여전히 위험에 처할 수 있어서다.

Q : 구체적으로 어떻게 해야 하나.

적절한 보호 장치를 마련하면서 과잉 규제도 피해야 한다. 하지만 대부분 국가의 입법부는 기술이 어떻게 작동하고, 얼마나 빠르게 변화하고 있는지에 대한 확고한 이해가 없다. 이 문제를 해결하려면 우리 앞에 무엇이 놓여 있고, 우리가 무엇을 할 수 있는지 증거에 기반해 예측할 수 있는 독립적이면서 전문가가 주도하는 기구가 필요하다. 전 세계는 ‘AI 안전에 대한 국제 협의체’(IPAIS)에서 이 문제를 논의할 수 있다.

Q : 앞서 언론을 통해 제안한 바 있는 IPAIS에서는 어떤 아젠다를 주로 다뤄야 할까.

이 기구는 AI 모델 데이터를 엄격하게 수집하는 중앙 허브이자 AI 개발자들이 보고하는 신뢰할 수 있는 기관이 될 것이다. 또 AI 시스템의 역량과 발전 속도에 대해 시의적절하고, 기술적으로 신뢰할 수 있는 평가를 제공할 것이다. 장기적인 모니터링과 조기 경보 기능뿐만 아니라 국제 규범을 형성하는 데도 영향을 미친다는 의미다. 주로 다루게 될 의제는 AI의 현황과 위험성, 잠재적 영향, 그리고 이와 관련한 타임라인을 평가하는 것이다. IPAIS가 다룰 의제는 과학적으로 수집된 데이터에 대해 공정하게 초점을 맞춘다는 점에서 기대를 모은다. 이해 상충 위험이 있는 1차 연구 및 정책 제안은 배제될 것이다. 정책 입안자에게 가장 필요한 건 무엇보다 어떤 AI 기능이 개발됐고, 앞으로 어떤 기능이 개발될 것인지에 대한 독립적이고 과학적인 합의다. 이것이 바로 안전한 AI 개발을 위한 필수적 기반이다.

중앙일보

에릭 슈밋 전 구글 최고경영자가 2016년 3월 서울에서 열린 구글 딥마인드 챌린지 기자회견에서 발언하는 모습. AP. 연합뉴스.

<이미지를 클릭하시면 크게 보실 수 있습니다>



Q : AI가 인류에게 도움이 되려면 더 필요한 게 있나.

챗 GPT와 같은 강력한 AI 모델을 통제하기 위해 과거에 제안했던 해결책이 있다. 서로 혁신을 부추기는 AI 검증 회사 생태계(an ecosystem of AI testing companies)를 조성하자는 것이다. 물론 정부 규제 당국이 이 기업들을 점검하고 인증해야겠지만, 민간이 생태계를 구축하고 확장하는 데 주도적 역할을 해야 한다.

Q : AI 검증 회사 생태계에 대해 더 설명해달라.

A : 가장 강력한 AI 시스템을 검증하기 위해선 검증 주체 역시 위험성을 알아챌 수 있는 작업에 특화된 강력한 AI 시스템이어야 한다. 그러기 위해서는 검증 회사들도 경쟁이 필요하다. 돈과 인재를 놓고 경쟁하고, 서로를 능가하는 혁신을 이뤄야 한다. 그래야만 그들이 검사하는 모델과 동일한 속도로 검증 역량을 갖출 수 있을 거다. AI는 너무 빠르게 변하고 있고, 일반적인 정부의 프로세스에 의존하기엔 위험성이 높다. 일정 수준 이상 기능을 가진 AI 모델은 정부 규제 당국이 인증한 민간 AI검증 회사에 비용을 지불하고 안전성을 평가하도록 한다면 이런 생태계를 구축할 수 있다.
중앙일보

2015년 10월 에릭 슈밋 전 구글 최고경영자가 서울 여의도 국회의장 접견실을 방문한 모습. 중앙DB.

<이미지를 클릭하시면 크게 보실 수 있습니다>



Q : 한국은 올해 서울에서 'AI의 책임 있는 군사적 이용에 관한 고위급회의'(REAIM)를 개최한다. 군사 작전에 갈수록 녹아드는 AI 기술을 책임 있게 활용할 방안은.

이미 세계 곳곳에서 AI가 전장을 바꾸고 있다. 모든 군사 기술은 인간의 책임과 관련한 기본 원칙을 지키며 활용돼야 한다. 그래야만 민간인의 고통을 줄이고 상호 파괴적인 군비 경쟁을 막을 수 있다. 조 바이든 미국 대통령과 시진핑(習近平) 중국 국가주석이 이미 서로에게 이익이 되는 ‘안전 조치’에 대해 논의하기로 약속하지 않았나.

Q : 미국의 AI 국가안보위원회 위원장을 역임했고 현재 특별 경쟁력 연구 프로젝트(SCSP)를 맡아 신흥 기술 관련 자문을 하고 있다. 한·미가 중국의 기술 부상에 공동 대응할 방안은.

다양한 방법이 있는데 그 출발점으로 연구·개발(R&D)과 데이터 공유 협력을 확대해야 한다. 이를 통해 공급망을 강화하고 교역을 활성화하는 것이다. 무엇보다 정부는 AI, 생명공학 등 핵심 기술에 대한 공통된 국제 표준과 규범을 수립해야 한다. AI 안전성과 관련한 국제적 협력이 이뤄진다면 중국과 대화할 여지도 충분히 생긴다.

박현주 기자 park.hyunju@joongang.co.kr, 강광우 기자 kang.kwangwoo@joongang.co.kr

중앙일보 / '페이스북' 친구추가

넌 뉴스를 찾아봐? 난 뉴스가 찾아와!

ⓒ중앙일보(https://www.joongang.co.kr), 무단 전재 및 재배포 금지
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.