게티이미지뱅크 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
이서윤 | 사법연수원 교수·판사
근래의 인공지능 논의는 주로 ‘무엇을 할 수 있는가’에 쏠려 있다. 그러나 더 먼저 물어야 할 질문은 ‘무엇을 해도 되는가’, 다시 말해 가부(可否)가 아니라 당부(當否)의 문제다. 기술을 어디까지 허용할 것인가에 관한 고민은 새삼스러운 일이 아니다. 인간 배아 복제 기술에 대한 국제 사회의 전반적 태도는 기술이 아무리 발전해도 침범할 수 없는 영역이 존재한다는 집단적 합의를 보여준다.
인공지능 기술에서도, 허용되지 않는 영역에 대하여 묻고 답하는 과정이 반드시 선행되어야 한다. 미국 시애틀시가 마련한 인공지능 정책은 이러한 고민이 반영된 예라고 볼 수 있다. 시는 공무원 채용, 인사평가, 징계, 조사, 해고, 그리고 각종 보조금·지원금처럼 주민의 권리와 생활에 직결되는 의사결정은 인공지능이 단독으로 내려서는 안 되고, 반드시 실질적인 인간의 감독이 개입해야 한다는 원칙을 명문화하였다. 공공 영역에서 최종 책임은 사람에게 남겨두겠다는 선언이다.
사법 영역 또한 예외가 아니다. 판사가 단순히 규칙을 대입하는 존재라면, 재판 자동화는 효율성과 일관성을 동시에 얻는 매력적인 해법처럼 보일 수도 있다. 그러나 일관된 결론이 반드시 좋은 것인가? 많은 사건에서 쟁점은 ‘옳고 그름의 판단’이라기보다 충돌하는 가치와 이해 중 무엇을 우선할 것인지, 어느 지점을 적절한 균형점으로 삼을 것인지의 선택이다. 우리 사회에 정해진 한가지 답이란 없고, 시점과 맥락, 가치에 따라 다른 균형점을 택한 판결의 결론도 서로 다를 수밖에 없다. 사회의 가치는 시간에 따라 변화하고, 판례 또한 마찬가지다. 이러한 변화는 조용히, 일률적으로 진행되는 것이 아니라, 다양한 의견이 제각각 목소리를 내는 불협화음 속에서 만들어진다. 성범죄 형량이 증가하는 추세, 낙태의 비범죄화, 양심적 병역거부의 인정 등은 모두 불일치와 논쟁, 변화의 과정에서 만들어진 사회적 합의라고 볼 수 있다. 이는 헤겔이 말한 정반합의 과정과도 닮았다. 과거의 경험에서 도출한 동일한 패턴에 수렴하도록 학습된 인공지능 시스템 안에서 이런 변화의 가능성이 제대로 구현될 수 있을지, 냉정히 따져볼 필요가 있다.
그렇다고 사법에서 인공지능의 활용 가능성을 부정할 필요는 없다. 유사 사건의 결론을 탐색하고, 해당 사건과의 공통점과 차이점을 구조적으로 보여주거나, 평균적인 판결 경향에서 현저히 벗어난 사안을 감지해 판사에게 경고하는 도구는 충분히 상상해볼 수 있다. 다만 이런 기능은 어느 한 결론으로 유도하는 장치가 되어서는 안 되고, 왜 다른 결론에 이르렀는지 법관이 판결문에서 더 충실히 설명하도록 돕는 보조 수단이 될 수 있도록 섬세하게 설계되어야 한다. 그런 의미에서 사법 영역의 인공지능은 절차를 효율화하고, 판결문의 설명적 기능을 강화하는 데 기여할 수 있을 것이다.
나아가 알고리즘이 자동으로 생성한 판결문은, 법관이 자신의 이름과 양심을 걸고 서명하는 판결문과 본질적으로 같을 수 없다. 재판은 법조문을 기계적으로 대입하는 작업이 아니라, 인간의 삶을 다루는 결론을 책임지고 감당하는 일이다. 서명에 실리는 무게감과 책임성은 기계가 모사할 수 있는 영역이 아니다.
인공지능의 기술적 범위는 앞으로도 계속 확장할 것이다. 그러나 인간의 존엄, 관계, 책임이 핵심이 되는 영역에서 인공지능은 대체자가 아니라 보조자로 머물러야 한다. 효율성이라는 좁은 잣대를 넘어, 무엇이 반드시 인간에게 남겨져야 하느냐는 근본적인 질문을 던지는 일이 지금 우리에게 필요하다.
[끝나지 않은 심판] 내란오적, 최악의 빌런 뽑기 ▶
내란 종식 그날까지, 다시 빛의 혁명 ▶스토리 보기
이 기사의 카테고리는 언론사의 분류를 따릅니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
