AI 분야를 주도하고 있는 구글은 일찌감치 이런 사태를 예상했다. 7가지 구글 AI 원칙을 발표한 이유다. 내용은 이렇다. (1)사회적으로 유익해야 한다. (2)불공정한 편향을 만들거나 강화하지 않는다. (3)안정성을 우선으로 설계되고 테스트돼야 한다. (4)인간을 위해 책임을 다해야 한다. (5)개인정보 보호를 위한 설계 원칙을 적용한다. (6)과학적 우수성에 대한 높은 기준을 유지한다. (7)구글의 AI 원칙에 부합하는 용도에 활용될 수 있도록 해야 한다.
당연한 말 같지만 성능이 뛰어난 AI를 만들어야 하는 개발자 입장에서는 지키기 쉽지 않는 가이드라인이다. 이루다는 이중 최소한 3가지 원칙을 위반했다. 불공정한 편향을 만들었거나 강화했고, 그래서 인간을 위해 책임을 다했다고 볼 수 없다. 개발자들이 개인 정보를 오용했다는 논란이 벌어지고 있다는 점에서 개인정보 보호를 위한 설계 원칙도 소홀했다.
AI는 인간 사회를 반영할 수밖에 없다. 인간이 만든 빅 데이터를 기반으로 학습하기 때문이다. 문제는 인간 사회가 결코 정의롭지 않다는 사실이다. 정의롭지 못한 AI는 똑똑해질수록 위험한 존재로 돌변한다. AI가 인간과 세상에 도움이 되려면 윤리적인 데이터로 교육해야 한다. 도덕적 인간을 위한 교육보다 더 철저하게 AI 교육을 위한 데이터 점검이 필요하다. 이루다 사태는 AI가 올바른 방향으로 가는 전화위복의 기회가 되기를 바란다.
[장박원 논설위원]
[ⓒ 매일경제 & mk.co.kr, 무단전재 및 재배포 금지]
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.