컨텐츠 바로가기

04.25 (목)

AI가 낸 사고 다루려면 어떤 법 필요할까? 자율주행차부터 AI 챗봇까지

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
AI타임스

(사진=박성은 기자)

<이미지를 클릭하시면 크게 보실 수 있습니다>


(사진=박성은 기자)자율주행차 사고 시 손해 배상은 어떻게 진행할까? 사용자를 모욕하는 AI 챗봇을 처벌할 수 있을까?

법조계 전문가들이 모여 인공지능(AI)을 통해 피해를 입었을 시 필요한 법제도를 논의하는 자리가 마련됐다.

과기정통부는 9일 코엑스에서 '제3차 인공지능 법제정비단 공개발표회'를 개최했다. 인공지능 법제정비단은 과기정통부 주관으로 구성한 전문가 협의체다. AI와 관련된 법, 제도, 규제 관련 주요 이슈를 논의하기 위한 곳이다.

인공지능 법제정비단에서는 매월 공개 발표회를 개최해 학계, 업계, 국민 의견을 수렴하고 있다. 이번 발표회 주제는 'AI 사고와 범죄, 누가 어떻게 책임질까'였다.

자율주행차 사고 손해보상은? 현행법상 운행자가 해야

AI로 인한 사고 부담이 가장 큰 분야 중 하나는 단연 자율주행차다. 법제정비단 내 전문가들에 따르면 현재 상황에서 자율주행차 사고가 발생한다면 손해배상은 자동차 손해배상 보장법으로 이뤄질 가능성이 크다. 즉, 차를 운행하는 사람에게 책임을 지운다는 것이다.

최경진 가천대 교수는 "현재로서는 자율주행차 사고로 인한 손해배상은 자보법을 차용해 처리 가능하다. 해당 법은 애초에 운행자에 책임을 묻기 위해 마련된 것으로 제조사에 책임을 지줄 수 없다. 물리적 운행을 직접 하지 않더라도 운행을 하게 만드는 사람이 책임을 질 수 있는 것"이라고 말했다.

이와 같은 상황에 대해 최 교수는 운행자 책임을 완화하는 방향으로 법을 개선해야 한다는 입장이다.

최경진 교수는 "AI를 사용하는 이유는 편리하기 위해서인데 결국 책임을 사용자가 다 지면 무슨 의미가 있나 한다. 제품 이용을 많이 하도록 만드려면 책임 완화 장치가 필요하다. 그래서 AI 제품을 더 쓰고 싶어질 것이다. 제조물 책임을 아주 강화하거나 일단 서비스 제공자에게 책임을 물리는 것도 가능하다"고 설명했다.

AI타임스

발언 중인 최경진 교수(오른쪽)와 이승윤 카카오페이 변호사(왼쪽)(사진=박성은 기자)

<이미지를 클릭하시면 크게 보실 수 있습니다>


발언 중인 최경진 교수(오른쪽)와 이승윤 카카오페이 변호사(왼쪽)(사진=박성은 기자)자율주행차 사고 원인을 제대로 판단하기 위해서는 AI 기술을 잘 아는 외부 전문가 위원회도 필요하다는 주장이다.

최 교수는 "의료 사고 발생 시에도 외부 의료 전문가들이 객관적으로 판단해 분쟁을 조정한다. 자율주행차 사고에서도 알고리즘, 데이터, 센서, 네트워크 등 어디서 문제가 발생했는지 파악하려면 전문가가 필요하다. 의료조사위원회처럼 독자적으로 조사하는 조직을 만들어 조사하면 서비스 제공자 책임이 강화되더라도 책임 균형이 이뤄질 것"이라고 말했다.

알고리즘과 같이 물리적으로 특정할 수 없는 것이 피해 원인이라면 현행법으로는 처벌하기 어렵다. 이를 위해 디지털 제품에 대한 제조물 책임법을 새로 마련해야 한다는 것이 최경진 교수의 입장이다.

그는 "알고리즘으로 인한 피해는 기존 제조물 책임법과 완전히 다를 수 있다. 제조물 책임법을 변형해 디지털 프로덕트 책임법을 마련할 수 있을 것"이라고 전했다.

AI 챗봇 악의적 사용 제재 방법도 필요...AI 법에서 AI 정의 명확해야

우리나라에 AI 윤리 필요성을 알린 대표적인 서비스는 AI 챗봇 이루다라고 할 수 있다.

제2의 이루다 사건이 발생하지 않기 위해서는 먼저 개발 단계에서부터 윤리 검증을 철저히 해야 한다는 것이 법조계 전문가들의 주장이다.

이근우 화우 변호사는 "개발 단계에서부터 윤리적으로 탄탄하게 만드는 것이 중요. 윤리적인 데이터셋을 제대로 만들고 이에 대해 교육을 잘 시켜야 한다"고 강조했다.

AI에 악의적으로 욕설, 인종차별 발언 등을 해 잘못된 데이터를 반영하도록 만드는 인간 사용자에 대해서도 제재할 방법이 필요하다.

이 변호사는 "챗봇을 대상으로 악의적 데이터를 인풋(input)하는 사용자를 특정을 할 수 있다면 당사자에게 적절한 책임을 묻도록 하는 방법도 필요하지 않을까 한다"고 전했다.

AI타임스

발언 중인 이기숙 SKT 변호사(오른쪽)와 이근우 화우 변호사(왼쪽)(사진=박성은 기자)

<이미지를 클릭하시면 크게 보실 수 있습니다>


발언 중인 이기숙 SKT 변호사(오른쪽)와 이근우 화우 변호사(왼쪽)(사진=박성은 기자)이기숙 SKT 변호사도 "부정적 언어를 계속 사용하는 사람의 데이터를 전체 빅데이터를 위해 제거하는 방법도 생각해볼 수 있다"고 말했다.

이러한 AI 피해 사건을 위해 발의된 AI 기본법에 대해서는 실효성을 지적하는 의견이 나왔다.

이상직 변호사는 "AI 관련해서 법이 여러 개 발의되어 있는데 여기서 나름대로 AI에 대해 정의하고 있다. 그런데 이 정의는 정책적으로는 의미가 있지만 실질적인 처벌을 위해서는 좀 더 명확해야 한다"고 말했다.

그는 "예를 들면 AI 알고리즘을 써야 되고, 인공 신경 회로망이 있어야 되고, 자가 학습이 가능해야 하고 이런 기술적인 부분들이 아주 자세하게 포함돼야 한다"고 전했다.

AI타임스 박성은 기자 sage@aitimes.com

[관련기사]과기정통부, 기업 위한 AI 윤리 자율점검표 초안 공개...47개 문항과 사례 제공

[관련기사]자율주행차 4단계 가능하려면... "기술뿐 아니라 법, 제도, 윤리 모두 갖춰져야"

Copyright ⓒ '인공지능 전문미디어' AI타임스 (http://aitimes.com)
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.