강병탁 AI스페라 대표
사이버 보안 관점서 가짜뉴스는 '새로운 공격 벡터'
시스템 보호 넘어, 신뢰 보호로 가야
강병탁 AI스페라 대표(사진=AI스페라) |
영국에서는 총기 난동 사건 이후, 극우 단체가 흑인 경찰관으로 보이도록 합성한 이미지를 유포하면서 시위와 폭동이 촉발됐다. 홍콩에서는 트럼프 전 대통령이 손에 가짜 화상회의를 열어 전세계 정치인들과 통화하는 영상이 유포되기도 했다. 선거 기간에는 정치인의 음성을 합성한 전화가 유권자들에게 발송됐고, 전쟁 중에는 국가 지도자의 항복 연설 영상이 유포되기도 했다.
이 사례들은 단순히 ’가짜뉴스‘ 문제로 보는 것은 충분하지 않다. AI가 만들어내는 허위정보는 자동화되고, 대량 생산되며, 경로까지 설계된 공격 도구에 가깝다. 사이버보안 관점에서 보면 이는 표현의 자유 논쟁을 넘어, 사회 시스템을 교란하는 새로운 공격 벡터로 이해해야 한다.
우리는 오랫동안 보안을 ’시스템을 지키는 일‘로 정의해 왔다. 서버를 보호하고, 네트워크를 방어하며, 계정을 탈취로부터 지키는 것이 핵심이었다. 그러나 AI는 공격의 표적을 바꾸고 있다. 이제 공격은 데이터가 아니라 신뢰 체계를 겨냥한다.
정치 지도자의 음성, 금융 전문가의 얼굴, 기업 임원의 화상회의, 뉴스 앵커의 화면은 모두 ’디지털 신뢰의 상징‘이다. AI는 이 신뢰의 외형을 복제한다. 그 결과, 개인의 판단과 집단 여론, 심지어 금융 시장과 국가 안보까지 영향을 받는다. 공격 표면이 기술적 영역에서 인지적·사회적 영역으로 확장된 것이다.
각국은 대응책 마련에 나서고 있다. EU는 합성 콘텐츠에 대한 표시 의무를 강화했고, 미국은 AI 합성 인물을 활용한 기만 행위에 제재를 가하고 있다. 우리나라도 AI 생성 콘텐츠에 대한 표시 의무와 허위조작정보 유포에 대한 법적 규제를 도입했다. 이러한 노력은 분명 의미가 있다.
그럼에도 제도와 속도는 AI 기술의 발전 속도를 쫓아가지 못하고 있다. 생성형 AI는 누구나 접근 가능한 도구로 확산됐고, 합성 기술은 점점 더 자연스러워졌다. 법과 규제가 사후 대응에 머무르는 사이, 공격은 이미 자동화되고 실시간화되고 있다.
이제는 문제의 정의를 조금 바꿔야 한다. AI 허위정보는 단순히 콘텐츠를 걸러내는 문제가 아닌 정보 인프라 차원의 대응 체계를 구축해야 하는 문제다. 신속한 팩트체크 시스템도 필요하다. 또한 공격이 어디서 시작되고, 어떤 네트워크를 통해 확산되는지, 어떤 구조적 취약점이 악용되는지에 대한 가시성을 확보해야 한다.
민간 협력 역시 같은 맥락에서 중요하다. AI 기업, 소셜 플랫폼, 보안 기업, 그리고 정부는 기술적 탐지와 대응 역량을 공유해야 한다. 양측의 신뢰 자원을 모두 재구성해야 한다. 이는 단순한 규제 강화의 문제가 아니다. 정보전 대응을 위한 공동 방어체계의 과제다.
SNS 플랫폼 기업은 이제 단순한 콘텐츠 유통자가 아니다. 그들은 글로벌 정보 인프라를 운영하는 사업자다. 인프라 운영자에게는 안정성과 신뢰성 유지가 필수적이다. AI 생성 정보의 확산을 차단하고, 조작 가능성을 최소화하는 기술·운영적 조치를 강화해야 하는 이유다.
AI 기술은 인류의 편익과 산업 혁신을 이끄는 핵심 동력이다. 이를 위축시키는 방식의 접근은 바람직하지 않다. 다만, 기술이 만들어낼 새로운 공격 방식에 대해 사회가 준비되지 않은 채 낙관만을 유지하는 것도 위험하다.
지금 우리가 마주한 문제는 ’AI가 거짓말을 잘한다‘는 사실이 아니다. 문제는 그 거짓이 너무 쉽게 신뢰의 외형을 입고 사회 전반으로 확산된다는 점이다.
보안의 정의가 바뀌고 있다. 시스템을 보호하는 것을 넘어, 신뢰를 보호하는 일이 중요해졌다. AI 시대의 안보는 콘텐츠 통제의 문제가 아니라, 신뢰 체계를 어떻게 지킬 것인가의 문제다.
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
