SNS에 공개된 사진, 음성 활용해
가짜 얼굴, 가짜 목소리 만들어
“게시물 전체공개 지양해야”
가짜 얼굴, 가짜 목소리 만들어
“게시물 전체공개 지양해야”
[매경DB] |
지난 10월, 해외에 거주하는 외국인 A씨 휴대전화에는 영상 메시지가 하나 들어왔다. 영상을 재생하자, 한국을 여행한다며 집을 떠난 딸이 방에 감금된 채 울면서 살려달라고 소리쳤다. 범인은 “당신 딸을 납치했다. 딸을 살리고 싶으면 합의금을 보내라”라며 A씨를 협박했다. A씨는 영사관에 연락했고, 영사관은 한국 경찰에 신고했다.
신고를 받고 출동한 한국 경찰은 즉각 딸의 안전을 확인했다. 울부짖던 딸은 딥페이크로 만든 가짜 영상이었다.
7일 경찰청 국가수사본부는 인공지능(AI) 기술이 보이스피싱(전화금융사기) 범죄에 활용되는 사례가 해외에서 발견되고 있고, 유사 사례가 국내에서도 발생할 수 있다며 주의를 당부했다. 전문가들조차 육안으로는 진위를 판단하기 어려워 할 만큼 딥페이크 기술이 고도화하하면서 범죄 수단으로도 악용되고 있는 것이다.
전화사기 범죄에 악용될 수 있는 AI 기술에는 딥보이스(음성 복제·합성·변조)도 있다. 범인은 자녀의 목소리를 복제한 뒤 부모에게 전화해 가짜 목소리를 들려준다. 수화기 너머에선 납치된 것처럼 흐느끼며 살려달라거나, 급한 일이 있다면서 돈을 빌려달라는 익숙한 목소리가 울린다. 부모가 상황을 판단할 여유를 가질 수 없도록 범인은 즉각적인 송금을 요구한다.
딥페이크와 딥보이스는 실존 인물에 대한 학습이 필요한데, 이때 학습 자료로 사회관계망서비스(SNS) 등에 공개된 영상·사진·목소리 등이 주로 활용된다. 이때문에 SNS 등에 불특정 다수가 볼 수 있는 ‘전체공개’ 상태로 게시물을 올리는 것을 지양해야 한다는 지적이 나온다.
특히 경찰은 납치를 빙자한 전화가 걸려올 경우 무조건 경찰에 신고하는 게 우선이라고 강조했다. 납치 신고가 접수되면 경찰은 요구조자의 위치를 파악하는 등 초동 조치를 최우선으로 수행하고 있다. 범인이 전화를 끊지 못 하도록 협박해 경찰에 신고하기 곤란한 경우에는 주변 사람에게 경찰에 신고하도록 도움을 청하거나, 통화하면서 문자 메시지로 112에 신고해 자녀의 안전을 확인하는 방식으로 대처해야 한다고 경찰은 조언했다.
안찬수 경찰청 마약조직범죄수사과장은 “경찰은 AI 기술을 악용한 피싱 범죄를 예방하기 위한 홍보 콘텐츠를 제작해 국내는 물론 해외 주재관과 한인회를 통해 전파하고 국민 보호에 힘쓰겠다”고 말했다.
[ⓒ 매일경제 & mk.co.kr, 무단 전재, 재배포 및 AI학습 이용 금지]
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.