컨텐츠 바로가기

11.27 (수)

이슈 인공지능 윤리 논쟁

"AI 윤리준칙은 리스크 줄여줄 것…자동화 시스템 구축 중"

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
과학기술정보통신부, 산업계·학계 등 유관기관과 현장 간담회개최

머니투데이

박윤규 과학기술정보통신부 제2차관/뉴스1

<이미지를 클릭하시면 크게 보실 수 있습니다>



"AI(인공지능) 윤리준칙에 기대하는 효과는 현장에서 잘 적용되는 것과 이를 자연스레 준수하는 기업문화를 형성하는 것" - 네이버

"화려한 이미지보다는 문제없는 올바른 이미지 생성에 집중하고 있다" - LG

과학기술정보통신부가 11일 오후 서울 중구 제네시스랩 본사에서 현장 간담회를 열고 산업계·학회 등과 만나 AI(인공지능) 윤리·신뢰성 강화 방안을 논의했다. 간담회에는 박윤규 과기정통부 제2차관과 송대섭 네이버(NAVER) 책임리더, 김유철 LG AI 연구원 AI 부문장, 최재식 카이스트 교수 등이 참석했다.

오는 7월 한국형 초거대 생성AI '하이퍼클로바X' 공개를 앞둔 네이버는 2021년 2월부터 AI 윤리준칙을 준비했다. 네이버는 현재 서비스 기획/개발 초기부터 AI 윤리 자문 프로세스를 거친다. 네이버는 SAPI(서울대 AI 정책 이니셔티브)와 함께 CHEC(체크)라는 AI 윤리준칙을 만들어 활용 중이다.

송 책임리더는 "산학협력을 통해 네이버 AI 윤리 준칙의 현장 적용 노력을 공유하여 AI 기술 활용에 관한 우려를 줄일 수 있도록 산업적·사회적 관점에서 상세히 설명할 것"이라며 "AI 서비스 관련 외부 이슈가 제기될 경우 CHEC 결과를 기반으로 신속한 커뮤니케이션을 할 수 있도록 지원하겠다"고 말했다.

LG의 경우 2022년 8월부터 △인간존중 △공정성 △안전성 △책임성 △투명성 등 5가지 원칙을 중심으로 윤리준칙을 준비했다. LG는 AI 연구원을 중심으로 과제 수행 시 발생할 수 있는 AI 윤리문제를 점검한 뒤 우선순위대로 문제를 해결해 나가고 있다. LG도 네이버와 마찬가지로 윤리점검 사례를 기반으로 과제 특성별 점검항목을 표준화해서 자동화 시스템을 구축 중이다.

김 부문장은 "작년에 윤리원칙을 발표한 이후 바로 적용해 왔고 올해 구성원들이 얼마나 이를 인지하고 실천하는지 설문조사를 진행한 결과 90% 이상이 윤리원칙에 공감했다"며 "책임 많은 리더일수록 더 높은 인식을 가지고 있었다"고 말했다.

정부도 AI 윤리·신뢰성 강화를 위한 노력을 소개했다. 정부는 '인공지능산업 육성 및 신뢰 기반 조성 등에 관한 법률안'을 조속히 추진해 단순한 규제가 아니라 기업이 명확한 기준을 갖고 AI를 개발할 수 있도록 돕겠다는 입장이다.

최동원 과기정통부 과장은 정부의 AI 윤리·신뢰성 확보를 위한 그간의 노력을 소개했다. 최 과장은 AI 윤리기준 제정부터 실천방안 마련, 윤리정책포럼 운영 등 민간 자율적 윤리체계 확립을 위한 그간의 정책 추진상황과 향후계획을 발표했다.

문정욱 KISDI(정보통신정책연구원) 센터장은 AI 윤리기준의 준수 여부를 기획자·운영자 스스로 점검할 수 있도록 과기정통부와 KISDI가 개발한 '자율점검표' 내용을 소개했다. 또 챗봇·작문·영상 분야별 기업 현장 적용 사례를 공유했다.

이강해 TTA(한국정보통신기술협회) 단장은 AI 윤리기준 중 기술적으로 구현 가능한 4가지 핵심요건을 기반으로 개발자가 참고할 수 있는 기술적 요구사항을 담은 개발안내서 내용과 공공사회·의료·자율주행 분야별 개발안내서가 어떻게 활용됐는지 발표했다.

박 2차관은 "챗GPT 등장 이후 초거대·생성형 AI가 산업과 일상 속으로 빠르게 확산되고 있는 상황에서 AI 윤리·신뢰성 이슈가 새로운 국면에 접어들고 있다"며 "기술 개발부터 활용까지 전단계에서 AI 윤리·신뢰성 확보하는 것이 중요한 만큼 더욱 더 많은 노력을 기울일 것"이라고 말했다.

이정현 기자 goronie@mt.co.kr

ⓒ 머니투데이 & mt.co.kr, 무단 전재 및 재배포 금지
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.