컨텐츠 바로가기

05.03 (금)

이슈 인공지능 윤리 논쟁

[헤럴드포럼] AI 개발, 책임과 윤리에 주목하자

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
헤럴드경제

전 세계적으로 AI(인공지능)의 알고리즘 편향성 및 개인정보 침해 등의 문제가 지속해서 제기되며 ‘책임 있는 AI’와 ‘AI 윤리’가 화두로 떠오르고 있다. 두 개념 모두 AI가 안전하며 사회에 유익한 방식으로 사용되도록 보장하기 위한 방법론이지만 책임 있는 AI는 기술 관점에서, AI 윤리는 AI 시스템의 기반이 되는 도덕 원칙 관점에서 접근하고 있다.




책임 있는 AI를 실현하려는 기업은 프로세스와 시스템을 통해 윤리적인 가치를 보장하고 긍정적인 영향력을 강화하는 방향으로 AI를 설계하는 것이 필수적이다. AI 거버넌스 구조를 구축하고 윤리적 가이드라인을 확립하며 투명성과 책임성 보장을 위한 메커니즘을 만드는 것이 이에 해당한다.

반면 AI 윤리를 실현하려는 조직은 AI기술이 지닌 윤리성을 판단하고 잠재적인 결과를 예측해서 AI 작동 메커니즘 및 정책의 도덕성 여부를 결정할 수 있어야 한다. AI 알고리즘의 공정성을 조사하고 AI가 사회와 개인에게 미치는 영향력을 검토함으로써 AI의 혜택과 폐해 사이의 균형을 맞춰야 하는 것이다.

AI기술은 개발 자체만으로 사회에 중대한 영향력을 끼치기 때문에 이에 대한 진지한 논의가 사전에 이뤄져야 한다. 또한 책임 있는 AI 개발은 개발자의 책임인지, 아니면 정책과 거버넌스로 관리감독이 이뤄져야 하는 것인지에 대한 중요한 질문에 답해야 한다.

일각에서는 개발자가 AI 시스템을 안전하고 윤리적인 방식으로 개발할 수 있는 전문적인 지식을 가지고 있기 때문에 개발자가 책임 있는 AI 개발을 책임져야 한다고 말한다. 이런 주장의 배경에는 개발자가 AI에 대한 지식을 활용해 편견이 없고 사용자의 개인정보를 보호하며 오용을 방지하는 시스템을 만들 수 있다는 판단이 있다. 반면 정치 및 거버넌스 영역의 책임론을 강조하는 입장은 AI가 사회에 부정적 영향력을 끼칠 수 있기 때문에 감독과 규제가 필요하다는 것이다. 관련 정부 부처 및 정책입안자가 윤리적인 AI를 위한 규제와 가이드라인을 시행함으로써 조직에 책임 있는 AI를 개발하지 못한 것에 대한 법적 책임을 물을 수 있다는 것이다. 그러나 아직 윤리적인 AI를 위한 선제적이고 실행 가능한 조치가 정착되지 않은 것이 현실이다.

책임 있는 AI에는 기술개발과 정책 및 거버넌스 영역의 조화가 필요하기 때문에 전 세계 기업뿐 아니라 각국 정부, 비영리 및 연구조직의 표준적인 AI 윤리 원칙 개발도 활발히 진행되고 있다. 중국과 미국 등 다양한 선진국가에서는 이미 기업의 AI 활용 규제를 시행하고 있거나 마련하기 위해 노력하고 있다. 글로벌 기업들 또한 위험 평가, 규제 분석을 수행하고 있으며 AI윤리위원회를 신설해 AI 개발 및 구축 전반을 감독하는 조직도 있다.

책임 있는 AI 현실화를 위해선 무엇보다 기업의 확고한 의지가 중요하다. 개발 단계에서부터 AI의 사회적 파급효과에 대응할 수 있는 프로세스 및 시스템 마련에 힘써야 하고, AI의 도덕적 가치를 제시한 정부 정책도 준수해야 한다. 책임 있는 AI를 위해선 효과적인 기술적 방법론과 도덕적 원칙 적용 여부를 면밀히 점검해야 하며, 이러한 노력에 AI 생태계의 지속 가능한 발전이 달려 있다.

산제이 바수(Sanjay Basu) 오라클 클라우드 엔지니어링 수석 이사

rim@heraldcorp.com

Copyright ⓒ 헤럴드경제 All Rights Reserved.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.