오픈AI가 개발한 대화형 챗봇 AI 기술인 챗GPT(ChatGPT) [사진: 셔터스톡] |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
[디지털투데이 AI리포터] 인공지능(AI) 챗봇이 사용자의 개인 정보에 접근함에 따라 이를 보호하기 위한 암호화 조치에 대한 연구가 활발하다. 그런데 최근 연구자들이 AI 챗봇의 응답을 해독하는 공격법 개발에 성공했다.
14일(현지시간) 아스테크니카에 따르면 이스로엘 미르스키 책임자를 비롯한 이스라엘 벤구리온대 공격형 AI 연구팀은 챗GPT와 같은 주요 AI 챗봇에 존재하는 사이드 채널을 이용하는 공격법을 발견했다. 이는 데이터 패킷을 모니터링해 응답의 55%에 해당하는 특정 주제를 높은 단어 정확도로 유추할 수 있다.
사이드 채널은 소비되는 전력, 특정 작업 중에 생성되는 소리, 빛 또는 전자기 방사선 등 의도하지 않은 소스를 통해 시스템에서 비밀 정보를 얻는 수단을 뜻한다. 공격자는 이러한 소스를 통해 CPU에서 암호화된 키, 브라우저 쿠키 등의 정보를 수집할 수 있다. 이번 공격법에 사용된 사이드 채널은 AI가 사용자 쿼리에 응답할 때 사용하는 토큰(인코딩 된 단어)에 존재한다.
미르스키는 "현재 챗GPT 및 기타 서비스에서 보낸 비공개 채팅은 누구나 읽을 수 있다"라며 "여기에는 질문자와 동일한 와이파이 또는 랜에 있는 악의적인 공격자나 트래픽을 관찰할 수 있는 모든 사람이 포함된다"라고 공격법을 개발한 배경을 밝혔다.
그는 "이 공격은 수동적인 방법이기 대문에 오픈AI나 클라이언트 모르게 진행할 수 있다"라며 "오픈AI는 이러한 종류의 도청 공격을 방지하기 위해 트래픽을 암호화하지만 여기에는 결함이 있어 메시지의 내용이 노출되는 것으로 나타났다"라고 설명했다.
<저작권자 Copyright ⓒ 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.