AI안전연구소 초대소장 김명주 교수
김명주 AI안전연구소장 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
멀게만 느껴지던 인공지능(AI)은 일상생활 곳곳에 스며들면서 부작용으로 딥페이크(영상 조작물), 개인정보 유출 같은 신종 범죄를 야기하고 있다. 목소리를 변조해 보이스피싱에 악용하는 수법까지 등장했다.
한국전자통신연구원(ETRI) 부설기관인 AI 안전연구소(AISI)는 AI를 악용해 나타날 수 있는 잠재적 위험에 대응하기 위해 지난달 출범했다. 초대소장에는 김명주 서울여대 정보보호학부 교수가 선임됐다. 김 소장은 AI 안전문제 해결을 위해 정책과 기술은 물론 AI 사용자들의 윤리역량을 제고하기 위한 교육이 필요하다고 제언했다.
현재 연구소는 3개 실로 구성돼 있고, 인원은 15명으로 시작했다. 올해 말까지 7명을 더 채용하고, 내년에는 30명까지 인원을 확장할 생각이다. 김 소장은 “AI 안전연구소의 역할은 크게 평가, 정책, 기술개발 3가지로 정리할 수 있다”며 “AI의 안전성을 평가하고, 평가를 토대로 정책을 만들거나 평가를 위해 필요한 기술과 안전 훈련 기술을 개발한다”고 소개했다.
딥페이크 등 AI 안전문제를 예방 또는 해결하기 위한 대책이 있는지 묻자 김 소장은 정책과 기술은 물론, AI 사용자들의 윤리 의식이 필요하다는 답변을 내놨다. 김 소장은 “안전의 반대말은 위험이다. 위험의 범위는 상당히 넓은데 딥페이크, 가짜뉴스도 문제지만 AI로 인해 실직자가 나올 수 있고 에너지 문제도 있다”며 “이러한 문제를 푸는 방법은 정책과 기술”이라고 강조했다. 이어 “정책과 기술은 동전의 양면과 같아서 함께 움직인다고 보면 된다”며 “다만 이미 사고가 생긴 이후라면 법이 필요한데, 이를 미연에 방지하려면 오히려 윤리가 더 중요하다”고 진단했다. AI를 사용하는 시민들이 윤리역량을 가져야 하며, 이를 위한 교육이 필요하다는 뜻이다.
국회 본회의 통과를 앞둔 ‘AI 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)’은 AI 산업의 건전한 발전을 지원할 근거와 기준을 핵심 내용으로 한다. AI 안전연구소 운영을 위한 법적 근거도 AI 기본법에 담겼다.
김 소장은 이에 대해 “AI 안전연구소 설립은 우리나라가 6번째로, 다른 나라에서도 설립을 준비하고 있다”며 “앞서 AI로 인한 위험을 언급했는데, AI 안보 위험도 그중 하나다. 이 때문에 개인이나 회사 단위가 아닌 국가적인 대응이 필요한 것”이라고 말했다.
AI 기본법에 따른 기대효과를 묻자 김 소장은 “AI 기본법의 제일 큰 방점은 규제가 아니고 AI 산업의 진흥이다. 3년마다 AI 기본계획을 세우고 추진하는 내용이 담긴 것도 같은 맥락”이라며 “연구소는 이 과정에서 발생할 수 있는 위험 요소를 제거하는 역할을 맡는다”고 설명했다. 이어 “규제를 너무 많이 하면 진흥에 문제가 생길 수 있다”며 “AI 기본법은 우리나라 AI가 안전하게 성장할 수 있는 방향으로 균형을 맞추기 위해 만들어졌다”고 부연했다.
김 소장은 한국의 AI 수준을 묻는 말에 “흔히 전 세계 1등은 미국, 2등은 중국이라고 알려져 있고 그 외에는 비슷하다. 이런 상황에서는 조금만 점수를 더 받아도 앞서갈 수 있다”며 “연구소 입장에서는 우리나라가 안전한 AI를 만드는 국가로 인식되도록 노력하고 있다”고 강조했다.
그렇다면 향후 AI 주도권 경쟁은 어떤 방향으로 나아가게 될까. 김 교수는 “AI는 데이터를 학습하며 발전하는데, 석유가 고갈 상태인 것처럼 데이터도 새로운 것이 많이 없는 상황이다. 결국은 기술력 싸움이 될 것”이라며 “AI 알고리즘의 성능을 어떻게 높이느냐, 그것을 어디에 접목해서 쓰느냐, 그것이 안전하냐 이 3가지를 놓고 싸우게 될 것”이라고 내다봤다.
이화연 기자 hylee@segye.com
ⓒ 세상을 보는 눈, 세계일보
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.