[개인정보보호위원회 제공] |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
[파이낸셜뉴스] 인공지능(AI) 개발과 서비스에 활용되는 공개된 개인정보의 안전한 활용 방안을 모색하는 논의가 시작된다.
개인정보보호위원회는 오는 3일 민간 전문가 및 관계부처 등이 참석한 'AI 프라이버시 민·관 정책협의회' 2차 전체회의를 열고 AI 개발·서비스를 위한 공개된 개인정보 활용 가이드라인을 논의한다고 2일 밝혔다.
챗GPT 등 대규모 언어모형(LLM) 개발의 핵심원료인 공개된 데이터에는 개인정보가 포함되어 있지만, 명확한 규율체계가 없어 회색지대가 발생하고 현장 불확실성이 높았다. 이는 AI 학습에 필수적인 공개된 데이터 활용의 제약요인으로 작용했고, 공개된 데이터를 안전하게 활용하기 위한 기준 마련이 시급하다는 지적이 지속적으로 제기된 바 있다.
개인정보위는 지난해 11월부터 데이터 처리기준 분과를 중심으로 전통적 개인정보 처리와 구분되는 AI 학습·서비스의 특성, 공개된 개인정보 처리에 수반되는 프라이버시 위험 등을 종합적으로 고려해 국내 개인정보 보호법제를 보완하는 가이드라인 마련 작업을 진행해왔다.
이번 협의회에서는 공개된 개인정보의 안전한 활용 관련 주요 법적·기술적 쟁점사항을 비롯해 AI 개발·서비스 단계별로 공개된 개인정보를 적법하고 안전하게 처리하기 위한 기준 등을 담은 'AI 개발·서비스를 위한 공개된 개인정보 활용 가이드라인(안)' 주요 내용을 공유했다.
개인정보위는 이날 민간 전문가 및 관계부처가 제시한 의견을 검토·반영하고 전체회의 등을 거쳐 이달 중 가이드라인을 확정·발표할 방침이다.
김병필 카이스트 교수(데이터 처리기준 분과장)는 “국제적으로는 대규모 AI 모형을 학습하기 위한 데이터가 조만간 고갈될 수 있다는 우려까지도 제기되고 있으나 우리는 기존에 축적된 데이터도 충분히 활용하지 못하는 실정”이라며 “온라인상 공개된 정보를 AI 학습에 안전하게 활용할 수 있는 적절한 가이드라인을 통해 현장의 불확실성을 낮출 필요가 있다”고 강조했다.
공동의장인 배경훈 LG AI연구원장은 “생성형 AI의 발전은 점점 더 많은 학습데이터를 필요로 하고 있으며, 안전한 공개 데이터 활용은 더욱더 중요해지고 있다”며 “이에 AI 프라이버시 민·관 정책협의회에서 마련한 가이드라인은 시의적절하게 그 방향성을 제시하고 있으며, 앞으로도 다양한 이해관계자들과 협의를 통해 개인정보 보호와 AI 기술발전이 상호 보완적으로 이루어지는 건강한 생태계를 조성해나갈 수 있기를 기대한다”고 말했다.
고학수 개인정보위 위원장은 “미국, 영국, 프랑스 등 주요국도 웹 스크래핑 방식으로 수집한 공개된 개인정보를 안전하게 활용하기 위한 사회적 논의를 본격화하고 있으며, 이러한 국제적 흐름에 발맞추어 혁신을 저해하지 않으면서 국민이 신뢰할 수 있는 기준이 마련될 수 있도록 지속적으로 의견을 수렴해 나가겠다”고 말했다.
yjjoe@fnnews.com 조윤주 기자
Copyright? 파이낸셜뉴스. 무단전재 및 재배포 금지.
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.