(사진=셔터스톡) |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
최근 '챗GPT'에서 다른 사람의 개인정보가 노출되는 사고가 발생해 한 때 서비스가 중단됐다. 원인은 오픈소스 라이브러리에서 전염된 버그였다. 무료로 공유된 기술을 가져다 쓸 때는 보안 위험이 뒤따를 가능성을 보여준 사례다.
이런 위험에 대응하기 위해 미국의 보안회사인 로버스트 인텔리전스가 오픈소스 AI 도구나 모델의 보안 점검 결과를 모은 'AI 리스크 데이터베이스'를 무료 공개했다고 블룸버그통신이 30일(현지시간) 보도했다.
이 회사가 구축한 데이터베이스는 17만개 이상의 무료 공개 AI 도구와 모델들에 대한 포괄적인 보안성 테스트 결과와 각각의 위험 점수는 물론 사이버 보안 연구원들이 만든 취약성 보고서를 모은 것이다.
이를 통해 오픈소스 AI 도구나 모델 사용자는 해당 기술의 보안 결함을 살피고 광고된 대로 잘 작동하는지와 편견을 갖고 있지 않는지를 점검할 수 있다. 이 데이터베이스는 구글의 컴퓨터 바이러스 점검 도구인 '바이러스토탈'을 기반으로 만들어 졌다.
하이럼 앤더슨 로버스트 인텔리전스 엔지니어는 "생성 AI 도구들을 포함해 무료 AI 모델이 종종 보안에 취약한 파일 타입을 사용하지만, 많은 회사들이 이를 알지 못한 상태에서 가져다 쓰고 있어 문제"라고 지적했다.
오픈소스 도구가 누구나 AI를 쓸 수 있도록 민주화하고 있지만, 무서운 요소가 있다는 것이다. 예를 들어 다운로드 후 실행하면 사용자의 컴퓨터에서 코드를 자동 실행하는 모델이 있는데, 이를 통해 악의적인 행위자가 사용자의 컴퓨터에서 악성 코드를 실행하거나 시스템을 장악할 수도 있다.
앤더슨은 또 이 회사가 거래하는 기업의 90%가 오픈소스 AI 개발기업인 허깅페이스의 저장소로부터 모델을 내려받아 쓰고 있다면서 보안 점검의 필요성을 강조했다. 실제 마이크로소프트의 AI 보안팀이 허깅 페이스 사이트에서 해킹에 취약한 모델들을 발견해 알려준 일도 있었다.
허깅페이스 측은 "지금까지 어떤 공격도 받아본 적이 없고 바이러스 백신 프로그램을 공개되는 모델들에 대해 적용하는 등의 조치를 하고 있다"면서도 "모델을 다운로드하는 사용자들이 위험성은 알아야 할 것"이라며 보안 위험이 있다는 데는 동의했다.
정병일 위원 jbi@aitimes.com
<저작권자 Copyright ⓒ AI타임스 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
