송민택 교수 |
과학기술정보통신부가 인공지능(AI) 발전과 신뢰기반 조성 등에 관한 법률, 즉 AI 기본법의 시행령을 입법예고했다. 시행령의 핵심은 고성능 AI의 기준을 연산량 중심으로 구체화하고, 생성형 AI 결과물에 대한 투명성 표시 의무를 명확히 한 점이다. 특히 학습에 일정량 이상의 연산량이 투입된 모델은 고성능 AI로 규정돼, 강화된 안전성 평가와 위험관리 의무가 부과된다.
금융은 시행령의 영향을 가장 빠르게 받는 영역이다. AI가 오류를 내면 대규모 민원이나 손실이 발생하고 신뢰 붕괴로 이어지기 때문이다. 챗봇 실수부터 신용평가 편향, 부정거래 탐지 실패까지 금융권 업무는 AI를 활용하는 순간부터 위험을 내포한다. 그만큼 고성능 AI 기준은 금융업에서 새로운 규제 등급으로 작동할 가능성이 높다.
시행령은 10²⁶ 부동소수점 연산(FLOPs) 이상의 모델을 고성능 AI로 규정하며 별도의 안전 조치를 요구한다. 쉽게 말해 금융권이 GPT-4.5 이상 수준의 모델을 자체 개발하거나 외부 API로 도입한다면 곧바로 규제 범위에 포함된다. 이러한 고성능 AI는 기술적으로 금융권에 부담을 준다. 기존 금융 모델은 계산 과정이 명확해 도출된 결과에 대해 설명이 가능하지만, 초거대 모델은 내부 구조가 복잡하고 출력이 확률적이어서 동일한 방식으로 검증하기 어렵다. 이런 차이는 금융권이 현행 리스크 체계만으로는 위험을 충분히 제어할 수 없으며, 새로운 검증 체계를 고민할 수밖에 없는 이유가 된다.
시행령에서 또 주목해야 할 부분은 고영향 AI에 대한 규정이다. 금융 서비스 대부분은 이 범주에 포함될 가능성이 매우 높다. 대출 승인, 금리 및 보험료 산정, 투자 권유 등은 고객의 경제적 권리와 직결된다. 이런 영역에서 AI가 생성한 판단은 소비자의 권리를 침해하거나 차별을 강화할 위험이 있다. 결국 금융기관은 고성능 여부와 관계없이 강화된 내부통제와 리스크 관리 체계를 갖춰야 한다.
투명성 규제도 금융권에서 실질적인 변화로 이어질 전망이다. AI 생성물 고지 의무가 강화되면서 AI PB(프라이빗 뱅커)나 자동화된 투자 자문은 사람의 조언과 구별돼야 한다. 이는 소비자를 보호하려는 규제 취지와 맞닿아 있다. 이에, 금융사는 AI 서비스를 어떻게 고도화할 지에 대해 전략적 고민이 필요하다.
다만 시행령은 모든 산업을 포괄하다 보니 금융의 특수성을 충분히 반영하지 못한 점도 있다. 특히 연산량 기준은 금융에서 발생할 수 있는 민감한 위험 구조를 모두 담기 어렵다. 작은 AI 모델이라도 대출이나 보험에 적용되면 문제가 발생할 수 있지만, 이런 상황까지는 고려되지 않았다. 또 금융 규제와 AI 규제가 겹치는 부분이 늘어나 실무에서 혼란이 생길 가능성도 배제할 수 없다.
그래서 금융권은 자체 기준을 더 정교하게 만들 필요가 있다. 금융감독원이나 금융보안원의 규정도 생성형 AI 시대에 맞게 업데이트돼야 한다. 특히 데이터 관리나 설명 책임, 모델 검증 절차 등 금융에 맞는 방식으로 정의돼야 한다. 이를 통해 금융권 전체가 AI 활용에 따른 위험을 스스로 통제할 수 있는 기반을 갖추는 것이 중요하다.
이러한 기반 위에서 금융이 AI를 안전하게 활용하려면, 지금의 보편적 기준에 더해 금융만의 세부 규칙이 추가로 마련돼야 한다. AI 기본법이 큰 방향을 제시했다면 금융위와 금감원은 금융 특성을 반영한 구체적인 운영 기준을 마련해야 한다. 특히 고영향 업무 분류, 설명가능성 기준, 소규모 모델 위험 평가, 데이터 활용 원칙 등은 금융 전용 규정으로 보다 정교하게 구성될 필요가 있다. 그래야 초거대 AI 시대에도 금융 혁신과 소비자 보호라는 두 목표를 함께 달성할 수 있을 것이다.
송민택 한양대 경영전문대학원 겸임교수 pascalsong@hanyang.ac.kr
[Copyright © 전자신문. 무단전재-재배포금지]
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
