컨텐츠 바로가기

06.26 (수)

이슈 IT기업 이모저모

"구글과 다르다"…네이버, AI 안전성 확보 시스템 구축

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

AI 내부 통제 시스템 '네이버 ASF' 공개

AI위험성 막기 위해 사전·사후통제

"소버린AI 위해 안전성 설계에 문화적 다양성 반영"

[이데일리 한광범 기자] 네이버가 인공지능(AI) 기술로 인한 잠재적 위험을 제거하기 위해, AI 개발과 배포 등 모든 단계에서 안전성을 확보하는 내부 시스템을 도입했다.

네이버는 17일 자체 기술 채널을 통해 AI 안전성 확보를 위한 내부 통제 시스템인 ‘네이버 ASF(AI Safety Framework)’를 발표했다. 이 시스템은 AI 개발과 제품화의 모든 단계에서 잠재적 위험을 진단하고 평가·관리할 수 있도록 설계됐다.

이데일리

최수연 네이버 대표이사. (사진=네이버)


네이버는 최근 생성형 AI의 급속한 고도화로 인해 AI 안전성 확보의 필요성이 더욱 커지면서 ASF를 구축했다. 이해진 글로벌투자책임자(GIO)는 지난달 열린 ‘AI 서울 정상회의’에서 각 지역의 문화적, 환경적 맥락을 이해하고 존중하는 AI 모델의 필요성을 강조하며 ASF 공개를 예고한 바 있다.

생성형 AI는 인류 역사상 ‘불’의 발견에 비견될 만큼 뛰어난 발명품으로 평가받지만, ‘환각 현상(할루시네이션)’ 문제가 나타나고 있다. 기술과 서비스의 고도화로 인해 더 큰 사회적 문제가 발생할 수 있다는 우려도 제기되고 있다.

구글의 사례가 대표적이다. 구글은 지난달 AI 검색 서비스 ‘AI 오버뷰(Overview)’를 공개한 이후 ‘황당 답변’으로 곤혹을 치렀다. 예를 들어, ‘사람이 하루에 몇 개의 돌을 먹어야 할까?’라는 질문에 “UC버클리 지질학자들에 따르면 하루에 최소 하나의 작은 돌을 먹어야 한다”는 답변이 나와 커다란 논란이 일었고, 결국 구글은 시스템을 수정하고 모니터링을 강화했다.

네이버는 이러한 사태를 미연에 방지하기 위해 ASF를 통해 AI 시스템의 사용 목적과 안전 조치의 필요성 정도에 따라 다양한 방법으로 위험성을 관리하기로 했다. 안전 조치의 필요성이 높다고 판단되는 AI 시스템의 경우, 위험이 완화될 때까지 배포하지 않기로 했다.

네이버는 빅브라더 출현을 막기 위해 다양한 문화를 반영한 소버린(Sovereign) AI를 발전시키는 데 공을 들이고 있으며, 이를 위해 ASF에도 문화적 다양성을 반영할 계획이다. 최수연 네이버 대표는 “향후 글로벌 시장에서도 소버린 AI를 개발하면서 네이버 ASF를 지속적으로 개선할 계획”이라며 “다양한 지역의 문화와 가치를 반영하는 AI 모델이 안전하게 사용되며 공존하는 지속 가능한 AI 생태계에 네이버가 적극적으로 기여할 것”이라고 밝혔다.


기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.