컨텐츠 바로가기

06.21 (금)

[AI어디까지 왔나] 챗GPT도 인정하는 AI 준비 부족, 22대 국회가 나서야

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
메트로신문사

<이미지를 클릭하시면 크게 보실 수 있습니다>


"한국의 인공지능(AI) 관련 법률이 빠르게 발전하는 기술 환경에 충분히 대응하지 못하고 있다는 비판이 일고 있다. 정부는 '인공지능 국가전략'과 'AI 윤리기준' 등을 통해 AI 기술의 발전과 윤리적 사용을 촉진하고자 하고 있으나, 법제화 속도와 포괄성의 부족, 데이터 활용 제한 등의 문제로 인해 실효성이 떨어진다는 지적이다. 이러한 상황에서 AI 기술의 혁신과 안전한 활용을 위한 보다 신속하고 포괄적인 법적 프레임워크 구축이 필요하다는 목소리가 커지고 있다."

6.08초.

위의 세 문장은 오픈AI가 개발한 대화 전문 인공지능 '챗GPT'가 대한민국의 인공지능(AI) 법과 관련해 쓰는 데 걸린 시간이다.

AI와 인간의 협업은 헬스케어·자율주행·데이터분석 등 다양한 분야에서 이뤄지고 있으며, 인간의 영역에서 불가능했던 일들을 극복할 수 있도록 도움을 주는 방향으로 발전을 가속화하고 있다.

글로벌 선도 국가나 기업들은 AI가 인류에 미칠 영향에 선제적으로 대비하고 관련 산업을 올바른 방향으로 육성하기 위해 국가적, 전사적 차원에서 준비하고 있지만, 한국은 AI 관련 법의 '큰 틀'이라고 할 수 있는 'AI기본법'도 21대 국회 임기 내 합의 처리하지 못하고 폐기 수순을 밟았다. 22대 국회가 윤리적이고 신뢰할 수 있는 AI 법제의 틀을 만들 수 있는 방법을 챗GPT와의 '대화'와 '검증'을 통해 알아본다.

(대화)

기자: 한국의 AI 관련 법률이 법제화 속도와 포괄성이 부족하다고 생각한 근거는 뭐야?

챗GPT: ▲빠르게 발전하는 AI 기술에 대한 법적 대응 지연 ▲포괄적이지 못한 법률 ▲데이터 활용의 제한 ▲윤리적·사회적 측면의 부족 ▲산업 진흥 정책의 실효성 문제 때문이야

(검증)

문재인 정부가 범부처 인공지능 국가전략을 수립하고 윤석열 정부가 AI서울정상회의를 개최하며 '안전·혁신·포용'을 AI 글로벌 규범으로 제시한 것처럼 대한민국은 미래 먹거리인 AI산업 육성을 위해 범부처가 나서고 있다.

반면, 이를 지원할 한국의 AI 법제화 속도는 뒤처지고 있다. 챗GPT도 지적했듯이 21대 국회의 AI 관련 입법 성적표는 초라했다. 국회 입법조사처가 지난해 12월 발표한 '인공지능 시대 도래에 따른 AI 입법수요 및 과제 연구'에서 제시한 21대 국회의 9개 인공지능 관련 입법안 중 본회의 문턱을 넘은 것은 단 한건에 그쳤다.

AI 기술 관련 윤리, 책임, 사회적영향에 대한 고려가 부족함에도 AI기본법이라고 불렸던 '인공지능산업 육성 및 신뢰 확보에 관한 법률안 제정안'도 과학기술정보방송통신위원회(과방위) 문턱을 넘지 못했다. 9개의 법률 대부분 AI기술 규제 위주였고, AI 산업 진흥과 지원을 위한 법안도 본회의에 오르지도 못했다.

메트로신문사

<이미지를 클릭하시면 크게 보실 수 있습니다>


(대화)

기자: 미국과 유럽의 AI 주요 법률 발의와 입법 성과는 어때?

챗GPT: 조 바이든 미국 대통령은 지난해 10월 AI의 안전하고 신뢰할 수 있는 사용을 위한 광범위한 행정명령을 발효했어. 이 행정명령은 AI 기업들이 정부와 모든 AI 관련 데이터를 공유하도록 요구하고 AI 관련 위협에 대응하기 위한 AI TF를 구성할 계획이야. 유럽연합은 2024년에 세계 최초로 포괄적인 AI 법률인 인공지능법을 채택했어. 이 법안은 안전, 생계, 권리에 위협을 가하는 AI 응용 프로그램을 금지하고, '고위험' AI 응용프로그램에 대한 엄격한 의무를 부과해. 여기에는 의료, 교통, 국경 통제, 교육, 사법 등의 분야가 포함돼.

(검증)

이미 미국과 유럽연합(EU)는 서로 다른 방식으로 포괄적인 AI 관련 법률안 구축에 나서고 있다.

미국 주 별로 AI 입법을 대응하는 모양새지만, AI의 부작용과 관련해서는 연방 입법인 '알고리즘 책임법'을 지난 2022년 첫 발의한 뒤 지난해 재발의를 추진 중이다.

알고리즘 책임법은 ADS(Automatic Decision Systems·데이터 분석과 알고리즘을 사용하여 사람의 개입 없이 자동으로 결정을 내리는 시스템)나 ACDP(Augmented Critical Decision Process·자동화된 시스템을 사용해 중요한 결정을 내리는 프로세스) 기술을 사용하는 기업은 영향평가를 수행하고 관련한 요약 보고서를 FTC(연방거래위원회)에 제출하도록 한다.

유럽연합 역시 2023년 6월 14일, AI 사용을 세계 최초로 규제하는 인공지능법을 채택했다. 이 법안은 EU집행위원회를 통과하면 2026년부터 시행된다. 인공지능법은 AI 기술 진흥과 AI가 초래할 위험의 방지 사이 균형을 목표로 AI의 사용에 대한 위험을 평가하며 공공에 위험을 초래하는 AI 사용의 경우 이를 전면 금지할 수 있도록 규정하고 있다. 인공지능법은 AI시스템을 크게 '위험 최소화 또는 없음', '특정 투명성 의무', '고위험', '허용할 수 없는 위험'으로 나눠 규제한다.

21대 국회에서 AI 기본법 제정에 성과를 내지 못했던 만큼, 22대 국회에선 글로벌 AI 법 질서를 선도하고 있는 미국과 유럽연합의 사례를 참고해 한국의 특수성을 반영한 입법이 필요하다는 목소리가 나온다.

입법조사처 보고서의 연구책임자인 성욱준 서울과학기술대학교 IT 정책대학원 교수는 AI 입법 주요 내용에 대해 보고서에서 "인공지능이 사회현안 해결에 적극적인 역할을 할 수 있도록 기반 마련이 필요하다"며 "다양한 생태계를 보호하고 보존하는 동시에 재난과 관련된 위험을 완화 및 줄이는 데 인공지능 시스템을 효과적으로 활용하려면 일련의 조치를 적극적으로 준비하고 구현하는 것이 필수적"이라고 보고서에서 밝혔다.

그러면서 "미국과 EU의 규정은 내용의 차이가 있지만 결국 잠재적 인권 위협으로 인식되는 인공지능 시스템에 대해 시장에 출시되기 전에 법률 규정에 정해진 요건에 따라 점검을 받도록 하는 것을 주요 내용"이라며 "우리 입법에서도 영향평가에 대한 규정이 가장 우선순위로 고려할 필요가 있다"고 했다.


기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.