컨텐츠 바로가기

    12.18 (목)

    [의정광장] AI 시대 지방의회, 윤리가 중요하다

    댓글 첫 댓글을 작성해보세요
    주소복사가 완료되었습니다
    인공지능(AI) 기술은 이제 행정의 주변이 아니라 중심으로 들어오고 있다. 서울시는 민원 응대, 자료 분석, 문서 작성 보조 등 다양한 분야에서 AI 시스템을 도입하고 있으며 일부 자치구도 민원 자동 분류나 도시문제 분석을 시범 운영하고 있다. 효율성과 정확성이 향상될 거란 기대가 크지만 기술의 속도보다 더 중요한 게 있다. 바로 AI 윤리의 방향이다.

    AI 윤리가 강조되는 이유는 명확하다. AI는 스스로 판단하는 듯 보이지만, 그 과정은 시민에게 보이지 않는다. 어떤 데이터를 학습했고, 어떤 기준으로 결론에 도달하는지는 쉽게 확인할 수 없다. 이러한 문제의식 속에서 정부와 행정안전부는 2025년 공공부문 AI 윤리원칙을 마련하며 책임성과 신뢰 확보를 핵심 과제로 제시했다. 행정은 무엇보다 시민에게 설명할 수 있어야 하고, AI는 그 설명 책임을 더욱 무겁게 만드는 요소가 된다.

    올해 정부가 발표한 ‘2025 인공지능 윤리기준 자율점검표’는 인권 보장, 프라이버시 보호, 다양성 존중, 공정성, 책임성, 투명성 등 10대 기준을 명확히 제시했다. 이는 공공 AI 도입이 기술 검토만으로는 충분하지 않다는 인식을 반영한다. 특히 투명성은 시민이 정책의 기준을 이해하고 그 결과에 대해 질문할 수 있게 만드는 민주적 기반이다.

    가장 우려되는 부분은 데이터 편향과 차별 가능성이다. AI는 주어진 데이터로 판단하기 때문에 데이터가 특정 지역이나 계층의 현실을 충분히 담지 못하면 정책적 판단도 왜곡될 수 있다. 인구구조와 생활환경이 크게 다른 서울에서는 이러한 위험이 더욱 민감하게 작용한다. 복지나 돌봄 정책에 AI가 활용될 때 특정 지역의 특성이 반영되지 않으면 실제로 도움이 필요한 시민이 배제될 수도 있다. 이는 기술 문제가 아니라 명백한 윤리의 문제다.

    부산시가 지방정부 중 처음으로 공무원 생성형 AI 활용 윤리 가이드라인을 마련한 것도 같은 고민에서 출발했다. AI가 만든 정보가 왜곡되거나 오용될 경우 공정성 훼손은 물론 행정 판단의 오류로 이어질 수 있기 때문이다. 공공 영역에서 AI를 안전하게 활용하기 위해서는 기술보다 제도가 먼저 준비돼야 한다.

    AI가 행정 결정 과정에 깊숙이 들어올수록 책임성 문제도 복잡해진다. AI 분석 결과를 참고해 정책을 결정할 때 오류가 발생하면 책임은 누구에게 있는가. 행정기관인가, 기술 제공자인가. 시민의 권리와 직접 연결되는 결정일수록 책임 구조는 분명해야 하며, 이 기준을 세우는 것이 바로 지방의회의 역할이다.

    공공 AI 가이드라인이 기술·윤리·보안·조직문화를 함께 강조한 이유도 여기에 있다. AI 도입은 기술사업이 아니라 행정 거버넌스의 문제다. 기관 내부의 윤리 기준, 명확한 역할과 책임, 지속적인 점검 체계가 갖춰져야 공공 AI의 부작용을 최소화할 수 있다.

    이 시대에 지방의회가 해야 할 역할은 더욱 명확해지고 있다. AI 활용에 대한 윤리 기준을 조례와 가이드라인에 반영하고, 편향과 위험을 지속적으로 감시하며, 기술보다 시민의 권리를 우선하는 원칙을 확립해야 한다. 지방의회는 AI 시대의 행정이 시민을 중심에 두고 운영되도록 만드는 최후의 안전장치다.

    AI 윤리는 기술을 막는 장벽이 아니라 기술이 시민을 위해 작동하도록 하는 나침반이다. 지방의회가 이 원칙을 단단히 세울 때 AI는 행정 혁신의 도구가 될 수 있다. 기술의 속도보다 중요한 것은 언제나 윤리의 방향이다.

    김성준 서울시의회 의원

    서울신문

    김성준 서울시의회 의원




      ▶ 밀리터리 인사이드

      - 저작권자 ⓒ 서울신문사 -
      기사가 속한 카테고리는 언론사가 분류합니다.
      언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.