컨텐츠 바로가기

06.26 (수)

네이버, ‘AI 안전성 실천 체계’ 공개…"통제력 상실·악용 막는다"

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
아시아투데이

네이버 본사 이미지.제공=네이버

<이미지를 클릭하시면 크게 보실 수 있습니다>


아시아투데이 김윤희 기자 = 네이버가 인공지능(AI) 시스템이 초래할 수 있는 위험을 인식·평가·관리하기 위한 대응체계를 설계했다. 특히 현존 최고 성능의 AI 시스템을 '프런티어(frontier) AI'로 정의하고 이는 3개월마다 위험도를 평가하고 관리하기로 했다.

17일 네이버는 자체 기술 채널인 '채널 테크'를 통해 '네이버 ASF(AI 안전성 실천 체계)'를 공개했다. 이 체계는 AI 시스템을 개발하고 배포하는 과정의 모든 단계에 적용한다. AI 시스템이 초래할 수 있는 위험을 각각 '통제력 상실 위험'과 '악용 위험'으로 정의하고 이에 대응하는 방법을 설계한 것이 특징이다.

인간이 AI 시스템에 영향을 미치지 못하게 되는 통제력 상실 위험을 완화하기 위해 'AI 위험 평가 스케일'을 통해 AI 시스템의 위험을 주기적으로 평가하고 관리한다.

아울러 시스템의 능력이 기존보다 6배 이상 급격히 증가할 경우 추가 평가하는 장치도 마련했다.

네이버는 AI 시스템의 또 다른 잠재적 위험인 '악용' 가능성에 대해서는 'AI 위험 평가 매트릭스'를 적용한다. 이 시스템은 AI 시스템의 사용 목적, 안전 조치의 필요성 정도 등에 따라 각각 다른 방법으로 위험을 관리한다. 이를테면 생화학 물질 개발과 같이 특수한 목적으로 사용되는 AI 시스템은 특별한 자격이 있는 사용자에게만 제공하는 식이다.

하정우 네이버 퓨처AI센터장은 "AI 안전성 체계를 설계하고 실천하는 것은 네이버가 국내에서 처음 시도한다"며 네이버 ASF를 활용한 위험 평가 결과나 실천 경험을 외부에 공개하는 방안을 고민하고 있다고 밝혔다.

최수연 네이버 대표이사는 "네이버는 한국에서 '하이퍼클로바X'라는 소버린 AI를 개발한 경험을 통해 문화적·지정학적 상황과 지역적 이해가 AI의 성능뿐만 아니라 안전성에도 영향을 미친다는 점을 실증했다"며 "향후 글로벌 시장에서도 소버린 AI를 개발하면서 네이버 ASF를 지속적으로 개선할 계획이고 이를 통해 다양한 지역의 문화와 가치를 반영하는 다수의 AI 모델이 안전하게 사용되며 공존하는 지속 가능한 AI 생태계에 네이버가 적극적으로 기여할 것"이라고 말했다.

ⓒ "젊은 파워, 모바일 넘버원 아시아투데이"

기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.