컨텐츠 바로가기

11.27 (수)

이슈 인공지능 윤리 논쟁

윤리·신뢰성 인증제 나오나…美, AI 규제 마련 첫발

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

美국가통신정보청, 60일간 의견수렴 후 정책권고안 마련

'AI 위험성 지적' 바이든 발언 이어 규제 움직임 본격

오픈AI도 "강력한 AI 시스템은 엄격한 안전성 평가 필요"

[이데일리 박종화 기자] 챗GPT 등 생성형AI가 주목을 받고 있는 가운데 미국 정부가 인공지능(AI) 윤리성·신뢰성을 담보하기 위한 새로운 규정 도입 필요성에 대한 조사에 착수했다. AI 상품·서비스를 출시하기 전 품질보증 인증을 받도록 하는 방안 등을 검토할 것으로 예상된다.
이데일리

(사진=AFP)

<이미지를 클릭하시면 크게 보실 수 있습니다>




11일(현지시간) 월스트리트저널(WSJ) 등에 따르면 미 상무부 산하 국가통신정보청(NTIA)는 AI 안전 규칙 제정을 마련하기 위한 60일간 공개 의견 수렴에 나섰다. AI의 윤리성·신뢰성을 확보하기 위한 제도적 장치를 마련하기 위한 첫걸음으로 해석된다. NICA는 수렴된 의견을 바탕으로 백악관과 의회에 정책 권고안을 제출할 예정이다.

공개 의견 수렴에 나선 것은 최근 AI 산업이 급성장하자 AI가 부정확한 정보를 제공하거나 잘못된 방향으로 이용자를 호도할 수 있다는 우려도 커지고 있기 때문이다.

WSJ은 NTIA가 AI의 위험성을 사전에 차단하기 위해 상품·서비스 출시에 앞서 안전성 인증 절차를 밟게 하는 방안도 검토 중이라고 보도했다. 미 정부에 납품하는 AI 상품·서비스에 윤리성·신뢰성 검수를 의무화하거나 AI 알고리즘 내에서 소수자 등에 대한 차별 요소를 발견하는 사람에게 포상금을 지급하는 방안도 거론된다.

앨런 데이비슨 통신정보국장은 “인공지능이 책임감 있게 사용되고 있다는 걸 확실히 하기 위해선 몇가지 안전장치를 마련해야 한다”고 WSJ에 말했다. 그는 “우리는 AI의 유망성을 믿는다”면서도 “그것이 안전하게 뿌리내려야 하는데 그게 지금 안 되고 있어 우려스럽다”고도 했다.

최근 미국 정부는 AI의 안전성에 대한 우려를 드러내고 있다. 조 바이든 미국 대통령은 지난주 백악관 과학기술자문위원회 회의에서 AI가 사회와 경제·국가안보에 미칠 잠재적 위험을 거론하며 “기술 회사는 제품을 공개하기 전에 그것이 안전한지 확인할 책임이 있다”고 말한 바 있다. 바이든 행정부는 지난해엔 AI 개발자·이용자를 위한 가이드라인인 ‘AI 권리장전’을 만들어 AI가 성·인종차별 방지, 사생활 보호장치 등을 갖춰야 한다고 권고했다.

AI와 관련한 직접적인 연방법이 없는 상황에서 정부 기관들은 기존 법안을 활용해 AI 규제 방안을 검토하고 있다. 미 법무부 반독점국은 AI분야에 경쟁제한 여부를 모니터링하고 있고, 연방거래위원회도 허위 또는 근거없는 주장을 하는 AI상품에 대해 법적처벌을 할 수 있다고 경고하고 나섰다.

이탈리아 데이터보호청도 AI 챗봇인 챗GPT가 개인정보 보호 기준을 충족하지 못한다며 지난달 접속을 차단했다. 프랑스와 아일랜드, 캐나다 당국도 유사한 조치를 검토하고 있다.

AI 기업도 규제 필요성을 인정하고 있다. 챗GPT 개발사인 오픈AI는 “강력한 AI 시스템은 엄격한 안전평가를 받아야 한다”며 “최선의 형태로 규제가 마련될 수 있도록 정부와 적극적으로 협력하고 있다”고 밝혔다. 이는 불안정한 AI로 인한 사고를 미연에 방지, 사업의 지속 가능성을 확보하기 위한 것으로 해석된다.


기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.