[MT리포트-생성AI 대전 2라운드]⑦챗GPT 활용의 나쁜 예…데이터탈취, 랜섬웨어, 다크웹 마켓플레이스
e gpt |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
오픈AI의 생성형 AI(인공지능)인 '챗GPT'가 해킹 등 사이버 범죄의 도구로 이용될 수 있다는 우려가 커지고 있다. 일부 보안 업체들은 이미 챗GPT를 이용한 해킹 정황을 파악해 주의를 촉구하고 나섰다.
보안 업체 체크포인트는 최근 '2023년 시큐리티 보고서'를 발표하면서 "챗GPT 등의 도구가 사이버 범죄자들에 의해 조작될 수 있다"며 "러시아 사이버 범죄자들이 오픈AI의 API 제한을 우회하고 악의적인 의도로 챗GPT에 접근한 사례 3건이 이미 입증되기도 했다"고 밝혔다.
체크포인트가 발견한 첫 번째 사례는 챗GPT를 이용해 다른 사용자 모바일 기기에 저장된 PDF 파일을 탈취하거나 C++ 프로그램 언어를 기반으로 파일 전송 시스템을 장악해 원격 서버로 빼돌릴 수 있는 악성코드를 만든 것이다. 체크포인트는 이 사례가 기술적으로 능력이 떨어지는 사이버 범죄자들이 악의적인 목적으로 챗GPT를 활용한 실제 사례라고 판단했다.
두 번째 사례는 챗GPT를 이용해 암호화 도구를 만든 것이다. 이는 약간의 수정만 거치면 다른 사용자의 컴퓨터를 완전히 암호화해 무력화시키고 대가를 노리는 랜섬웨어로 바꿀 수 있다. 체크포인트는 이 암호화 도구를 만든 사람은 랜섬웨어 방식으로 다른 사용자의 데이터베이스를 훔쳐 판 일이 있다고 설명했다.
세 번째로는 챗GPT로 다크웹 마켓플레이스를 만들어 불법거래에 사용한 것이다. 해당 마켓플레이스는 도난 계좌·카드, 악성코드, 마약 및 탄약 같은 불법 장물의 거래장소로 쓰인다. 개설자는 엄호화폐로 결제하도록 유도했다.
챗GPT를 만든 오픈AI도 이런 악용의 가능성은 인식했다. 샘 알트만 오픈AI CEO(최고경영책임자)는 지난 18일 ABC뉴스 인터뷰에서 "챗GPT를 세상에 내놓는 것이 개인적으로 조금 무섭다"면서 "챗GPT가 불법적인 일에 이용될 수 있고 사이버 공격에 이용될 수 있어 걱정한다"고 말했다.
그는 "위험도가 상대적으로 낮을 때 가능한 많은 것을 배워야 한다"며 "오픈AI 내 정책팀과 안전팀이 있지만 생성형 AI를 우리만 만드는 게 아니니 세계 주요 정부와 신뢰할 수 있는 국제기구 대표자들이 모여서 생성형 AI에 대한 규제 가이드라인을 만들어야 한다. 이 가이드라인은 개발자에게도 적용할 수 있어야 한다"고 강조했다.
한 보안 전문가는 "이미 국내에서도 챗GPT를 이용해 악성코드를 만드는 등 모의 테스트를 해봤는데 답변이 정확하지 않은 부분들이 있었다"며 "대놓고 악성코드를 만들어 달라고 하면 질문이 차단됐지만, 우회적으로 요구했을 땐 부정확하지만 그런 식으로 쓰일 수 있는 코드를 내놨다"고 말했다.
이어 "아직 크게 우려할 단계는 아니나 앞으로 충분히 악용의 소지가 높은 편이라고 보는 게 맞다"며 "전문가들 사이에선 우려의 목소리가 조금씩 나오는 것으로 안다. 챗GPT를 만든 오픈AI에서도 두렵다고 하는 만큼 앞으로 기술이 발전함에 따라 현실적인 위험이 될 수 있을 것"이라고 덧붙였다.
이정현 기자 goronie@mt.co.kr
ⓒ 머니투데이 & mt.co.kr, 무단 전재 및 재배포 금지
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.