본문으로 바로가기
65674826 0372021012265674826 08 0801001 6.2.4-RELEASE 37 헤럴드경제 0 false true false false 1611277084000

“개인 정보 피해 보상해라”…이루다에 ‘화난 사람들!’

글자크기
헤럴드경제

AI 챗봇 서비스 이루다 [이루다 개발사 스캐터랩 제공]


[헤럴드경제=최준선 기자] “인공지능(AI)로봇에 화난 사람들”

AI 챗봇 ‘이루다’로 촉발된 AI 윤리 문제가 도마에 올랐다. AI 개발 및 서비스 과정에 개인정보 유출도 제기된다. ‘이루다 개인정보 유출 피해 사건’에 300명이 넘는 사람들이 집단 소송에까지 나섰다. 이루다는 이용자들의 카톡 대화를 수집해 만든 것으로 알려졌다.

공동소송 플랫폼 ‘화난사람들’의 소송 모집에 많은 사람들이 몰려들고 있다. 피해자측은 서울동부지법에 증거 보전 신청서까지 제출했다. 피해자측은 개인정보 확산 방지, 손해 배상 등을 요구하고 있다.

AI 로봇이 인간의 일상 깊숙이 들어오면서, 논란이 끊이지 않는다. 특히 최근 AI 챗봇 서비스인 ‘이루다’의 소수자 혐오 발언 논란에 인간과의 상호작용 문제가 집중 조명되고 있다. AI가 곧 로봇의 ‘뇌’ 역할을 해 AI윤리 정립이 곧 인간과 로봇의 지속 가능한 관계를 좌우할 것으로 전망된다.

로봇의 두뇌 AI를 제대로 올바르게 가르칠수 있는 방법은 없을까.

인공지능에 대한 국제사회 차원의 원칙을 마련한 것은 지난 2019년 경제협력개발기구(OECD)가 ‘OECD AI 이사회 권고안’을 공식 채택한 것이 최초였다. 같은해 국내에서도 방송통신위원회는 AI 윤리 원칙을 제정해 발표했다. 기업 중에는 카카오가 AI 기술 개발과 윤리에 관한 규범을 담은 ‘알고리즘 윤리 헌장’을 발표한 것이 지난 2018년으로 국내서 가장 이르다.

최근 AI 챗봇 ‘이루다’가 논란을 일으키면서 AI윤리에 대한 대중적 관심은 더욱 커졌다. 이루다는 약 한 달 전 출시됐던 AI 채팅 로봇이다. 실제 연인들이 나눈 대화 등 100억건이 넘는 데이터를 딥러닝 방식으로 학습해, ‘실제 사람이 답을 해주는 것 같다’는 반응을 자아내기도 했다. 문제는 이루다가 이용자와의 대화 중 각종 성소수자, 흑인, 장애인 등에 대한 혐오 발언을 쏟아냈다는 점이다.

실제 대화를 학습한 것인 만큼, 일부 사용자들은 ‘AI에게는 죄가 없다’는 반응을 보이기도 했다. 하지만 학계는 물론 기업인들까지 나서 개발자의 무책임을 질타했고, ‘AI 윤리’를 수면 위로 끌어올렸다. 과학기술정보통신부가 AI 활용과 관련해 자율 규범의 형태로 마련한 ‘AI 윤리기준’에는 10대 핵심요건 중 하나로 ‘다양성 존중’을 명시하고 있다. AI 개발 및 활용 전 단계에서 사용자의 다양성과 대표성을 반영해야 하며, 성별·연령·장애·지역·인종·종교·국가 등 개인 특성에 따른 편향과 차별을 최소화해야 한다는 권고다.
헤럴드경제

특히 개발사는 데이터를 모으는 과정에서 개인정보 사용에 대한 이용자 동의를 100% 받지 못했다. 이에 AI의 개인정보 빅데이터 활용 범위로도 논쟁이 확대됐다. AI를 필두로 한 개인맞춤형 산업에서는 빅데이터 활용이 필수적이다. 하지만 그 과정에서 한국은 유럽, 미국 등과 비교해 강한 규제를 받고 있다는 평가다.

<이미지를 클릭하시면 크게 보실 수 있습니다>



손도일 법무법인 율촌 ICT(정보통신기술)팀장(변호사)은 “그나마 유럽은 가명정보와 실명정보라는 개념을 두고 개인정보를 보호하고 있다는 점에서 한국과 환경이 비슷하지만, 미국은 그런 구분 자체가 없다”며 “유튜브에서 맞춤형 동영상을 추천해주듯, 별도의 동의 절차 없이 서비스 이용 약관만으로 개인정보를 활용할 수 있는 등 산업 발전 차원에선 운동장이 기울어져 있다”고 말했다.

단순히 데이터를 알고리즘에 따라 처리하고 그 결과만 보여주는 것이 아니라, 왜 그런 결과가 도출됐는지 알고리즘 구조까지 설명할 수 있도록 노력해야 한다는 목소리도 높다. 실제 정부의 AI 윤리 기준에도 ‘투명성 요건’이 담겼다. 다만 정보 접근성이 높아지는 만큼 다른 원칙과의 충돌을 고려해야 한다고 권고하고 있다.

반대로 현재보다 감시감독의 강도를 높여야 한다는 목소리도 있다. 현행 국내법엔 개인정보 활용과 관련해 각각의 목적마다 개별적으로 동의를 받아야 하고, 동의를 받을 때는 쉽고 이해할 수 있는 언어를 사용해야 한다는 조건이 있다. 하지만 이같은 조건을 따르지 않는 기업들이 적지 않다는 지적이 나온다. 오병일 진보네트워크센터 대표는 “개인정보 처리 방침, 수집 등을 기업이 먼저 하는 만큼 책임성을 갖고 임해야 하며, 개인정보보호위원회는 감독기구로서 역할을 제대로 해줘야 한다”고 강조했다.

human@heraldcorp.com

- Copyrights ⓒ 헤럴드경제 & heraldbiz.com, 무단 전재 및 재배포 금지 -
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.