컨텐츠 바로가기

11.27 (수)

이슈 인공지능 윤리 논쟁

[기자수첩]이루다 사태, AI 기업 위한 대책 필요하다

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
이데일리

이후섭 IT과학부 기자


[이데일리 이후섭 기자] 인공지능(AI) 챗봇 `이루다`를 개발한 스캐터랩이 제대로 된 동의 없이 개인정보를 수집하고, 수집 목적 외에 데이터를 이용하는 등 총 8가지 개인정보보호법 위반행위로 1억 원이 넘는 과징금·과태료 처분을 받았다.

IT 업계에서는 AI 기술을 개발하는 데 있어 개인정보 처리 관련 규제의 기준을 가늠해 볼 수 있는 사례로 이번 사태를 주시했다. 애초 개인정보위는 이루다 조사결과를 바탕으로 AI 기술 개발자 및 서비스 운영자 준수사항, 이용자 안내사항 및 참고사례 등을 수록한 가이드라인을 마련할 계획이라고 밝혔기 때문이다.

하지만 윤종인 개인정보보호위원회 위원장은 전날 전체회의에서 “AI 전체 사업에 대한 가이드라인을 제시하고자 하는 건 아니다”라고 강조했다. 대신 개인정보위는 조만간 AI 서비스에 대한 ‘개인정보보호 자율점검표’를 발표할 예정이다. 점검표의 항목을 계속 업데이트 해 나가고, 관련 내용도 점차 늘려 새로운 버전을 추가로 내놓으면서 커버할 수 있는 영역을 넓혀나갈 계획이다.

물론 개인정보보호법이 포괄적으로 규정돼 있어 가명처리 기준, 데이터 이용 목적 제시 기준 등에 관해 획일적인 기준을 마련하기는 굉장히 어렵다. 이번 이루다 사태에 대해 100일의 조사기간 동안 산업계, 법·학계, 시민단체 등에서 제 각각의 의견을 내놓으며 격렬한 논쟁을 거쳤고, 개인정보위도 어디까지 가명처리를 처리해야 하는 문제에 대해서는 개별 사안별로 해당 여건을 고려해 판단할수 밖에 없다고 한계를 인정하기도 했다.

하지만 개인정보 보호 관련 정책 수립과 감독을 총괄하는 컨트롤타워 개인정보위 마저 명확한 기준을 제시해주지 않는다면 기업들. 특히 스타트업들의 혼란은 극에 달할 수밖에 없다. 기업들로선 `코에 걸면 코걸이, 귀에 걸면 귀걸이`가 되는 기준으로 법적 불확실성이 큰 상황에서 어떻게 사업을 하라는 소리냐고 항변할 수 있다. 스캐터랩이 `본보기`로 처분받았다는 소리가 나오는 이유다.

이번 사태의 원인 중 하나는 AI 기술 개발을 위해 학습 데이터 확보가 어려운 점이니, 이를 지원할 수 있는 근본적인 지원책도 필요하다. AI 강국을 외치고 있는 과학기술정보통신부는 스타트업을 위한 데이터 관련 제도를 다시 한번 점검할 필요가 있어 보인다.

김종윤 스캐터랩 대표가 “AI는 시작하는 초기 단계 기술다. 토론과 합의를 통해 함께 사례를 만들어 나가야 한다”고 한 것을 고려해 정부는 개인정보보호와 데이터 활용의 균형점을 찾아야 할 것이다.


기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.