컨텐츠 바로가기

    12.06 (토)

    법조계 "AI기본법 하위법령, 실효성 위해 구체적 기준 마련 필요"

    댓글 첫 댓글을 작성해보세요
    주소복사가 완료되었습니다
    디지털데일리

    <이미지를 클릭하시면 크게 보실 수 있습니다>


    [디지털데일리 이나연 기자] 과학기술정보통신부가 최근 시행령과 고시, 가이드라인으로 구성된 '인공지능(AI) 기본법' 하위법령 초안을 공개한 가운데, 법적 불확실성을 해소하고 실효성을 높이기 위한 구체적인 기준 마련이 필요하다는 법조계의 제언이 나왔다.

    한국법제연구원은 25일 오후 서울 종로구 김앤장 크레센도 빌딩에서 김앤장 법률사무소, 한국 정보통신법학회와 'AI기본법 하위법령에 대한 분석과 평가'에 대한 학술 세미나를 공동 개최했다.

    이날 행사는 AI기본법상 주요 쟁점인 고영향 AI와 투명성 의무 및 조사, 제재 등에 적용되는 내용을 중심으로 진행됐다. 현장에 참석한 전문가들은 하위법령 초안이 실무에서 어떤 혼선을 유발할 수 있는지 점검하고 개선 방향을 논의했다.

    ◆"고영향 AI 기준, 기획단계 적용 어려워…하위법령 간 정합성 보완 필요"

    마경태 김앤장 법률사무소 변호사는 AI기본법이 정의하는 '고영향 AI'가 하위법령 전반에 걸쳐 구조적 보완이 필요하다고 지적했다. 고영향 AI는 에너지·보건의료·원자력·교통·교육 등 분야에서 활용되는 시스템 중 생명·신체·기본권에 중대한 영향을 미치는 것을 의미한다.

    관련 사업자는 해당 기준을 종합 검토해 고영향 AI 해당 여부를 자체 검토하게 된다. 필요 시 과기정통부에 공식 확인 신청서를 제출하고 과기정통부 또는 전문위원회 자문 후 최종 확인 절차를 거친다. 고영향 AI로 판정된 사업자는 AI 제품·서비스 제공 시 사람의 기본권에 미치는 영향평가를 의무적으로 실시해야 한다.

    마경태 변호사는 이 과정이 비효율적이라는 입장이다. 그는 "고영향 AI 확인 절차는 기획 단계에서 이뤄져야 하지만, 확인 요청서에 제출해야 하는 서류(시스템 구성, 기능, 학습 데이터 개요 등)는 개발 완료 후에나 알 수 있는 정보"라며 "절차상 비효율성이 존재한다"고 지적했다.

    기업이 특정 기술 및 서비스 개발을 마친 뒤 고영향AI으로 판정될 경우, 전체 개발과정을 다시 검토하고 법적 책무를 처음부터 이행해야 하는 이중 부담이 발생할 수 있다는 것이다.

    디지털데일리

    <이미지를 클릭하시면 크게 보실 수 있습니다>


    고영향 판단의 핵심 기준 중 하나로 제시된 '의미 있는 인적 개입'에 대해서도 회의적인 시각을 내비쳤다. 인적 개입은 본질적으로 위험 완화 조치의 하나일 뿐인데, 이를 판단 기준의 중심으로 설정하는 것은 법 체계상 모순이라는 설명이다. 마 변호사는 "AI 시스템의 위험을 줄이는 방법은 다양하며 반드시 인간 개입만으로 국한될 이유는 없다"고 했다.

    하위법령 간 정합성 문제도 중요하게 다뤄졌다. AI기본법 시행령에서 제시한 '위험의 영향·중대성·빈도' 같은 평가 기준이 가이드라인의 구체 사례와 유기적으로 연결되지 않는다. 이에 사업자가 실제로 어떤 기준에 따라 고영향 여부를 판단해야 하는지 예측하기 어렵다는 설명이다.

    마 변호사는 "가이드라인이 제시하는 예시들이 실제 판단 기준인지 여부를 명확히 구분하고, 판단 기준의 구체적 작동 방식을 보완할 필요가 있다"고 제언했다.

    사업자 간 협업 및 정보 공개 의무와 관련해서는 법령이 형식적인 책무만 부과한 채 세부 실행 방안은 사업자의 자율에 맡긴 점도 지적됐다. 그는 "홈페이지 게시나 위험관리 보고 등의 절차가 형식적 규정에 그칠 경우, 실질적 의무 이행이 어려워질 수 있다"고 우려했다.

    마 변호사는 AI기본법에서 한발 나아가 의료기기법이나 신용정보법 등 분야별로 이미 마련된 고도화된 AI 규제 체계도 함께 고려해야 한다고 강조했다. 고영향 AI 규제가 효과를 발휘하려면 업종별 특수성과 기존 법률 체계와의 충돌 여부까지 종합적으로 검토해야 한다는 주장이다.

    디지털데일리

    <이미지를 클릭하시면 크게 보실 수 있습니다>


    ◆"생성형 AI 투명성 의무, 현실적 해석과 예외 규정 마련 시급"

    김유진 김앤장 법률사무소 변호사는 AI 기본법에 포괄적으로 도입된 투명성 의무와 관련된 하위법령의 한계점과 향후 과제를 설명했다.

    특히 딥페이크나 이미지·음향·영상 생성물에 대해 '실제와 구분하기 어려운 경우' 생성형 AI임을 표시해야 한다는 투명성 의무 조항은 구체적인 해석 기준이 부족하다고 지적했다. 김유진 변호사는 "'오인 가능성'의 기준이 되는 이용자가 누구인지가 명확하지 않아 생성 주체에 따라 적용 판단이 달라질 수 있는 문제가 발생한다"고 전했다.

    텍스트 콘텐츠에 대한 표시 방법은 기술적으로 구현이 어려운 상황임에도 불구하고, 이에 대한 고시 예외나 가이드가 마련되지 않았다는 점도 비판했다. 이미지나 영상과 달리, 텍스트는 복사·편집이 쉽고 워터마크와 같은 비가시적 표시가 현실적으로 적용되기 어렵다. 이 부분에 대해서는 별도의 적용 제외 규정이 필요하다는 의견이 제기됐다.

    예술적·창의적 콘텐츠에 대해서도 논의가 이어졌다. 현행 가이드라인은 엔딩 크레딧, 포장지 표시 등으로 생성 여부를 고지하도록 하고 있다. 다만 실제 이 방식이 표시 의무를 이행하는 주체에게 현실적인 선택지인지는 재검토가 필요하다는 지적이다. 제작자와 유통 사업자, 이용자 간의 책임 범위가 명확하지 않아 실무적으로 표시 의무가 공백 상태로 남을 수 있다는 우려다.

    디지털데일리

    <이미지를 클릭하시면 크게 보실 수 있습니다>


    김 변호사는 '내부 업무' 전용 콘텐츠에 대해 표시 의무가 면제된다는 조항 역시 해석상의 모호함이 존재한다고 밝혔다. 계열사나 외주 업체에 공유하는 콘텐츠가 '내부'로 간주되는지 여부 등, 실제 활용 맥락을 고려한 세부 해석 기준이 보완돼야 한다는 것이다.

    조사 및 제재 절차와 관련해서는 정부의 운영 방침도 함께 소개됐다. 현재 일부 규제 조항에 대해 3년 유예를 추진하는 법 개정안이 국회에 발의됐지만, 과기정통부는 시행일 자체는 그대로 두고 과태료 부과에 대해서만 계도 기간을 운영하겠다는 방침을 밝힌 상태다.

    김 변호사는 "이 계도 기간이 시정명령이나 중지 명령 등 실질적인 행정 제재에도 적용되는지는 여전히 불분명하다"며 " 관련 절차에 대한 보다 명확한 기준 제시가 필요하다"고 말했다.

    이어 "시행령과 가이드라인이 아직 초안 단계에 있는 만큼, 업계는 현재 진행 중인 이해관계자 의견 수렴 절차를 적극적으로 활용해 불확실성을 줄이고, 자사 서비스 특성에 맞는 고지 체계를 선제적으로 점검해야 한다"고 조언했다.

    - Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지 -
    기사가 속한 카테고리는 언론사가 분류합니다.
    언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.