AISC 인증 사무국에서는 기술적 검증 사업과 함께 AI 관련 기업들이 기술개발 과정에서 참고할 수 있는 'AI 10대 안전 가이드라인'을 마련, 발표했다. 가이드라인은 국제표준(UNESCO, OECD, NIST, EU AI Act 등)과 글로벌 컨설팅기관(PwC, Deloitte 등)의 프레임워크를 기반해 윤리·안전·신뢰성을 종합적으로 담고 있다.
가이드라인은 AISC가 AI를 설계·개발·배포하는 모든 개발자와 공급자가 AI 안정성과 신뢰성, 윤리성 확보를 위해 고려해야 할 체크 사항을 나열했다. 사무국은 가이드라인이 AI가 인간의 통제를 벗어난 기술이 아닌 신뢰 가능한 동반자로 발전하기 위한 윤리적 안전장치로 활용될 것으로 기대하고 있다.
◇인간 중심적 목표 정립(Alignment to Human Values)
AI 시스템은 반드시 인간의 가치와 목적에 부합해야 한다. 고위험 상황에서는 인간의 감독과 개입이 가능해야 한다.
◇신뢰성과 견고성(Reliability & Robustness)
AI는 설계된 범위 내에서 일관되게 작동해야 한다. 오류나 외부 공격에도 견딜 수 있게 설계돼야 한다. 안정성과 예측 가능성이 핵심 요소다.
◇투명성과 설명가능성(Transparency & Explainability)
AI의 의사결정 과정을 명확히 설명할 수 있고, 사용자와 이해관계자가 이해할 수 있어야 한다. 예측 결과에 대한 근거와 논리를 제시해야 한다.
◇안전성 및 보안(Safety & Security)
사이버 위협으로부터 시스템과 데이터를 보호한다. 각종 리스크로부터 사람·환경·자산·정보 등이 안전해야 한다. 다층적 보안 체계 구축이 필수적이다.
◇책임과 거버넌스(Accountability & Governance)
AI의 설계·운영·영향 등에 명확한 책임 소재가 있어야 한다. 조직 내·외부의 체계적인 감독과 감사를 통해 투명한 책임 체계를 확보한다.
◇공정성과 공평성(Fairness & Impartiality)
AI는 성별·인종·경제적 지위 등에 따른 불공정한 영향을 주어선 안된다. 모든 형태의 차별을 방지해야 한다. 편향 없는 알고리즘 개발이 핵심이다.
◇프라이버시 보호(Privacy & Data Protection)
개인 데이터는 명확한 동의하에 수집·사용 한다. 개인정보 보호와 프라이버시 권리가 보장돼야 한다. 데이터 최소화 원칙을 준수해야 한다.
◇위험의 측정 및 관리(AI Risk Measure & Manage)
AI의 위험 규모를 정량·정성적으로 평가하고 식별된 위험에 체계적으로 대응한다. 지속적인 모니터링과 업데이트를 통한 개선이 필요하다.
◇지속가능성과 포용성(Sustainability & Inclusiveness)
AI는 환경·사회적으로 지속 가능해야 한다. 모든 계층과 다양성을 포용하는 방식으로 개발·운영되어야 한다. 포용적 혁신을 통한 사회적 가치 창출을 목표로 한다.
◇미래세대를 위한 고려(Youth)
AI는 특히 젊은 세대의 사고방식, 가치관, 일과 삶의 균형 인식에 큰 영향을 미친다. 미래세대의 삶과 가치 보전을 신중히 고려한다.
조호현 기자 hohyun@etnews.com
[Copyright © 전자신문. 무단전재-재배포금지]
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
