27일 경기도 성남시 글로벌R&D센터에서 열린 인공지능(AI)안전연구소 개소식에서 참석자들이 기념촬영을 하고 있다. 왼쪽 넷째부터 최장혁 개인정보보호위원회 부위원장, 염재호 국가인공지능위원회 부위원장, 류광준 과학기술정보통신부 과학기술혁신본부장, 김명주 AI안전연구소장. 과기정통부 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
인류가 인공지능(AI) 기술을 안전하게 이용할 수 있도록 연구하는 'AI안전연구소'가 27일 출범했다. 영국· 미국 등에 이어 6번째 국가연구소다. 안전한 AI 기술 연구는 지난 5월 10개국이 참여한 가운데 열린 'AI서울정상회의'의 핵심 의제로 선정되면서 글로벌 어젠다로 부상하고 있다. 이날 경기도 성남시 글로벌R&D센터에 문을 연 AI안전연구소 개소식에서 김명주 소장은 "AI안전연구소는 규제 기관이 아니라 국내 기업들이 글로벌 경쟁력을 확보하는 데 장애가 되는 위험 요소들을 최소화하도록 지원하는 협력 기관으로 역할을 할 것"이라고 밝혔다.
AI안전연구소는 AI의 기술적 한계, 인간의 AI 기술 오용, AI 제어 불능 등으로 발생하는 AI 리스크를 체계적으로 대응하기 위해 만들어진 AI 안전연구 전담조직이다. AI의 위험을 미연에 파악해 최소화하는 데 중점을 두면서 AI 기술의 신뢰성을 제고하는 것에 목적을 두고 있다.
정부는 딥페이크 등 AI 기술을 활용한 부작용을 줄이는 동시에 AI 기술 가이드라인을 민간에 제공하면서 한국이 'AI G3(3대 강국)'로 도약하는 초석을 마련하겠다는 복안이다.
현재 전 세계 많은 국가에선 AI 안전 가이드라인에 대한 적용 기준과 강도가 달라 기업들이 연구개발(R&D) 과정에서 AI 위험 관련 불확실성에 노출되고 있는 실정이다. 유럽연합(EU)이 대표적인 사례인데, 2018년 5월 발효된 일반개인정보보호법(GDPR)은 엄격한 AI 활용 가이드라인으로 글로벌 빅테크 기업에도 위협이 되고 있다. 이와 관련해 김 소장은 "우리 기업도 이러한 장벽에 가로막힐 수 있으므로 R&D 단계에서부터 규제, 인증 및 여러 표준 절차를 살피는 게 필요하다"고 강조했다. 실제로 AI 안전 연구에서는 국제 규범을 선점하려는 세계 각국의 노력으로 치열한 각축전이 펼쳐지고 있다. 마이크로소프트(MS), 구글 등과 같은 글로벌 빅테크 기업들 또한 투자의 불확실성을 제거하는 차원에서 자국의 AI안전연구소와 긴밀한 협력 관계를 이어가고 있다. 지난 2월 미국 상무부는 안전하고 신뢰할 수 있는 AI의 개발과 배포를 지원하기 위해 구글, 오픈AI, 메타 등 기업은 물론 대학, 금융계 등 200여 개 기관이 참여한 'AI안전연구소 컨소시엄(AISIC)'을 발족했다. 나아가 지난 8월 오픈AI, 앤스로픽은 미국 AI안전연구소와 양해각서(MOU)를 체결하면서 자사 모델에 대한 사전 평가를 위한 접근을 허용하고 평가 결과에 대한 피드백을 제공하기로 했다. 이는 AI 기술 연구가 인류 전반에 어떤 위험으로 다가올지 검토하는 한편 미국 주도로 AI 기술 표준을 정립하겠다는 의도가 깔린 행보였다. 이를 바탕으로 미국 및 영국의 AI안전연구소는 지난달 앤스로픽의 '클로드 3.5 소네트' 최신 모델에 대한 사전 평가 결과를 공개하기도 했다. 이에 대해 과학기술정보통신부 관계자는 "미국 백악관은 지난해 7월 글로벌 빅테크 기업에 AI 기술의 오남용으로 인한 사회적 피해를 방지하고자 '책임 있는' AI 개발을 당부했고 기업들은 '자발적인 약속'을 발표했다"면서 "'AI서울정상회의'에서 논의된 책임감 있는 AI 시스템 개발과 관련한 구체적 실천 내역은 차기 정상회의에서 논의될 예정"이라고 설명했다.
국내 기업들도 AI안전연구소가 출범한 만큼 안전한 AI 연구 환경의 구축에 적극 나서고 있다. 한국이 국제 AI안전연구소 네트워크의 일원으로 참여한 만큼 산학연이 합심해 중장기적으로 아시아·태평양 지역의 AI 안전 규범을 주도해 정립하겠다는 것을 목표로 삼고 있다. 이날 AI안전연구소는 개소식의 일환으로 '대한민국 AI안전컨소시엄' 협약식을 함께 열었는데 AI 분야를 대표하는 국내 대표 산학연 기관 24곳이 참여하기로 하면서 눈길을 끌었다. 그만큼 국내 정보통신기술(ICT) 기업들은 투자의 불확실성을 해소하는 차원에서 AI 기술의 안전성에 대한 연구를 꾸준히 진행해왔다.
네이버의 경우 퓨처AI센터를 지난 1월 신설해 AI 윤리·안전 정책 수립 및 총괄하고 안전성 연구에 대한 협력을 수행하기로 했다. LG AI연구원은 산하에 AI 윤리위원회와 AI 윤리사무국을 두고 관련 체계를 수립했다. SK텔레콤 등 통신사도 별도 조직을 신설해 AI 기술 발전이 가져올 수 있는 위험을 관리하는 체계를 구축했다.
[김규식 기자]
[ⓒ 매일경제 & mk.co.kr, 무단 전재, 재배포 및 AI학습 이용 금지]
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.