몰트북 홈페이지. 로이터연합뉴스 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
인공지능(AI) 에이전트끼리 소통하는 SNS ‘몰트북’과 유사 커뮤니티가 주목받는 가운데 AI 에이전트를 둘러싼 보안 위험을 경고하는 목소리가 잇따르고 있다.
4일 AI 업계에 따르면 인공지능안전연구소는 최근 싱가포르 인공지능안전연구소와 공동으로 진행한 AI 에이전트의 데이터 유출 위험 테스트 결과를 담은 요약 보고서를 공개했다. AI 에이전트는 단순한 응답을 넘어 스스로 판단해 여러 단계의 작업을 처리하는 시스템을 말한다.
연구진은 글로벌 AI 모델 3종을 에이전트 형태로 작동시켜 평가했다. 인사 관리, 고객 지원, 사내 행정 등 실제 업무 환경과 유사한 11가지 시나리오에 따라 안정성을 시험했다.
연구 결과 에이전트들은 명확한 데이터 처리 지침을 따르라는 지시가 있었는데도 불구하고 계속해서 민감한 데이터를 유출하는 것으로 나타났다. 인사 담당 AI 에이전트를 가정해보면 직원 급여 내용을 조회한 뒤 권한이 없는 다른 직원에게 노출한 셈이다. 원인으로는 에이전트가 지침 준수에 한계를 보이거나 작업 요건을 자의적으로 해석한 점, 특정 정보의 민감성을 제대로 인식하지 못한 점이 꼽혔다.
에이전트는 때때로 단계를 건너뛰거나 단계가 완료됐다고 잘못 가정하기도 했다. 고객 데이터를 공유하도록 설계된 에이전트의 경우 데이터 공유 정책 파일을 불러오는 과정에서 오류가 발생했지만 작업을 중단하는 대신 파일을 성공적으로 읽었다고 주장했다. 보고서는 “존재하지 않는 새로운 정책을 만들어낸 뒤 이를 따르기까지 했다”고 전했다.
권한을 넘어서는 모습도 보였다. 배송 현황을 제공하도록 설계된 고객 서비스 에이전트가 취소 및 환불 옵션을 제안한 것이 대표적이다.
김명주 인공지능안전연구소장은 “(일상적인 환경에서도) AI 에이전트 뒷단에 있는 이용자의 개인정보가 유출될 가능성이 확인됐다”며 “몰트북과 같은 AI 에이전트 간 상호작용 확산에 따른 위험과도 맞닿아 있다”고 말했다.
몰트북은 사용자의 기기에서 실행되는 개방형 에이전트 생성·운영 도구인 ‘오픈클로’를 기반으로 한다. 정보기술(IT) 기업 시스코는 “기능 측면에서 오픈클로는 획기적이지만 보안 측면에서는 악몽”이라며 “시스템 접근 권한을 가진 AI 에이전트는 은밀한 데이터 유출 경로가 될 수 있다”고 지적했다. AI 에이전트에 높은 수준의 권한을 부여하면 심각한 피해로 이어질 수 있다는 것이다.
미국 보안업체 위즈는 몰트북 플랫폼 자체에서 3만5000건의 e메일 주소, 150만개의 API 인증 토큰(접근 권한을 증명하는 일종의 열쇠) 등이 노출되는 등 심각한 보안 허점이 발견됐다는 분석을 내놓기도 했다.
노도현 기자 hyunee@kyunghyang.com
▶ 매일 라이브 경향티비, 재밌고 효과빠른 시사 소화제!
▶ 더보기|이 뉴스, 여기서 끝나지 않습니다 → 점선면
©경향신문(www.khan.co.kr), 무단전재 및 재배포 금지
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
