캘리포니아주 마운틴뷰에 있는 구글 본사. |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
구글이 ‘인공지능(AI) 윤리’를 강화하기 위해 담당 연구원 수를 현재 200명에서 2배인 400명으로 늘린다고 11일(현지시각) 월스트리트저널(WSJ)이 보도했다.
WSJ에 따르면 매리언 크로크 구글 엔지니어링 담당 부사장은 이날 WSJ가 주최한 행사에서 “AI가 윤리적으로 작동하지 않는다면 기술을 개발한 회사에도 사업적으로 문제가 된다”며 이렇게 밝혔다.
최근 정보기술(IT) 분야에서는 각종 AI 윤리 문제가 부각되고 있다. IBM은 얼굴 생김새로 사람의 신원을 파악하는 얼굴인식 기술을 개발하려 했지만, 흑인, 아시아인, 여성 등 백인 남성이 아닌 사람의 신원을 잘못 파악하거나 범죄자 식별 시 편견이 작용할 수 있다는 우려 때문에 사업을 철수시킨 바 있다.
구글은 스마트폰 사용자의 손가락을 통해 심장박동 이상을 감지하는 AI 기술을 개발하는 과정에서 흑인 사용자에 대해서만 유독 오류가 자주 발생한다는 점을 발견해 수정하기도 했다.
구글은 AI 개발 후 발생할 수 있는 이런 문제를 사전에 연구하고 예방하기 위해 AI 연구 윤리 담당 연구원을 두고 있다. 최근 AI 능력이 고도화되면서 인류에게 해악을 끼칠 가능성이 더 높아지자, 해당 연구를 강화할 필요가 있다고 구글이 판단한 것으로 보인다. 예산 지원도 늘리기로 했다.
구글뿐만 아니라 마이크로소프트(MS)도 얼굴인식 기술의 악용 우려를 들며 경찰 등 법 집행기관에 이 기술을 팔지 않기로 했다. 미국 국방부도 AI 윤리 규범을 만들었다.
스캐터랩의 AI 챗봇 ‘이루다’. |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
국내에서는 지난 1월 스캐터랩이 만든 AI 챗봇 ‘이루다’가 혐오·차별·성희롱성 표현을 쓰도록 학습되면서 AI 윤리의 필요성이 본격적으로 제기됐다. 방송통신위원회는 AI 윤리 규범을 구체화하는 등 관련 제도를 개선하기로 했다. 지난 2월 네이버도 AI 윤리 준칙을 마련해 발표했고, 카카오는 전 직원 대상으로 AI 윤리 교육을 실시했다.
김윤수 기자(kysme@chosunbiz.com)
<저작권자 ⓒ ChosunBiz.com, 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.