임기범 서울과학종합대학원 대학교 객원교수 |
지난 8월, 우리나라에서는 충격적인 일이 벌어졌다. 텔레그램을 통해 전국 수백 개 학교 학생들을 대상으로 한 딥페이크 음란물이 대규모로 유포된 것인데, 경찰 수사가 시작됐지만 이미 피해는 걷잡을 수 없이 퍼진 뒤였다.
미국에서도 테일러 스위프트의 딥페이크 음란 이미지가 SNS를 뒤덮었고, 뉴햄프셔에서는 바이든 전 대통령 목소리를 흉내 낸 AI 전화가 유권자를 혼란에 빠뜨렸다.
이런 사건이 터질 때마다 우리가 듣는 조언은 비슷하다.
"AI 리터러시를 높여야 한다"
"영상을 주의 깊게 봐야 한다"
"출처를 확인해야 한다"
늘 이런 이야기인데, 물론 맞는 말이지만 현실적으로 생각해보면 우리는 하루에 수백 개의 이미지와 영상을 접하게 된다. 그걸 하나하나 확대해서 보고 출처를 추적해 진위를 판별하기란 전문가도 아닌 이상 사실상 불가능에 가깝다.
게다가 기술은 계속 발전한다.
구글은 '나노바나나 프로'라는 이름으로 더 정교한 이미지 생성 기능을 내놓았고, 오픈AI는 지난 12월 GPT Image 1.5를 공개했다. 이미지뿐 아니라 영상 생성도 빨라지고 있는데 구글의 Veo 3는 영상과 함께 사운드까지 자연스럽게 만들어내고, 오픈AI는 작년 12월 Sora를 일반 사용자들에게 공개했다.
올해 9월에는 Sora 2를 출시하며 빠르게 발전하고 있지만 정작 우리의 눈과 귀는 그대로다.
그렇다면 접근을 바꿔야 한다. 사람에게만 더 똑똑해지라고, 더 주의 깊게 보라고 요구하는 것은 한계가 명확하다. 이 문제를 극복하려면 시스템이 의무적으로 구분하고 알려주게 만들어야 한다.
해법의 핵심은 'AI의 생성물 표시 의무화'다.
선택이 아니라 필수로 적용되도록 만들어야 한다. 처음부터 콘텐츠에 지울 수 없는 디지털 워터마크를 반드시 새겨 넣도록 하고, SNS 등의 플랫폼은 콘텐츠 업로드 시 자동으로 체크해 AI의 생성물 여부를 표시하게 하는 것이다. 이는 크게 다음의 두 단계로 나눌 수 있다.
첫 번째는 생성 단계의 의무화다. AI 도구가 이미지나 영상을 만들 때 결과물에 '나는 AI가 만든 것'이라는 디지털 신호를 의무적으로 심어야 하는데, 여기서 중요한 건 각 나라가 제각기 다른 방식을 만들어서는 안 된다는 점이다. 유럽연합(EU)은 'AI Act'를 통해 라벨링을 의무화했고, 미국에서는 캘리포니아를 비롯한 주별로 법안이 만들어지고 있고, 우리나라도 AI 기본법 시행령을 통해 생성형 AI 결과물 고지 의무를 구체화하고 있다. 문제는 이런 움직임이 각개전투로 흩어져 있다는 것이다.
오픈AI, 구글, 메타 같은 주요 AI 기업은 모두 미국 기업이지만, 전 세계 시장에서 서비스를 제공한다. 플랫폼 역시 국경을 넘나든다. 그런데 워터마크를 심는 방식이나 메타데이터의 형식, 라벨의 표시 방법이 나라마다 다르면 어떻게 될까?
기업은 시장별로 다른 시스템을 구축해야 하고, 플랫폼은 어떤 표준으로 검증할지 혼란스러우며, 결국 누구도 제대로 작동하는 시스템을 만들지 못하게 된다. 지금 시급한 건 개별 법령을 만드는 것을 넘어 그 법령이 실제로 작동하도록 글로벌 표준을 만들고 이를 강제하는 국제적 협력 체계를 구축하는 것이다.
다행히 'C2PA'(Coalition for Content Provenance and Authenticity)라는 국제 표준이 이미 존재한다. 이는 콘텐츠의 출처와 편집 이력을 검증 가능한 형태로 담는 '영양성분표' 같은 것으로, 식품 포장에 원산지와 성분이 표시되는 것처럼 디지털 콘텐츠에도 통일된 방식으로 정보를 담자는 개념이다.
구글의 'SynthID'처럼 픽셀 수준에 워터마크를 넣는 기술도 이미 나와 있다. 이미지를 잘라내거나 압축해도 남는 강건한 신호를 만드는 기술은 더 이상 미래의 이야기가 아니다. 기술은 준비됐다. 이제 필요한 건 이 기술을
전 세계가 똑같이 적용하도록 만드는 정치적 의지와 국제적 합의다.
물론 완벽하진 않다. 실제로 Sora 2가 나온 지 일주일 만에 워터마크 제거 도구가 등장했다는 보도도 있었다. 하지만 목표는 '절대 지울 수 없게' 만드는 게 아니라 '지우려면 상당한 노력과 비용이 들게' 만드는 것이다. 지금은 가짜를 만들어 퍼뜨리는 게 클릭 몇 번이면 되지만 워터마크를 의무화하고, 이를 악의적으로 제거하는 행위를 가중 처벌하는 법을 만들면 이 비용 구조가 근본적으로 바뀐다.
악의적인 사람이 워터마크를 지우려면 시간과 노력을 들여야 하고 그만큼 범죄의 문턱이 높아진다. 그리고 이것이 전 세계 공통 표준이라면 어느 나라에서든 똑같이 작동하게 될 것이다.
두 번째는 플랫폼의 표시 의무화다. 사용자가 SNS에 이미지나 영상을 올리면 플랫폼이 자동으로 분석해서 앞서 말한 워터마크나 C2PA 정보가 있는지 확인하고, 있으면 'AI 생성' 또는 'AI 편집' 같은 라벨을 반드시 붙여야 한다는 것인데, 이미 우리가 익숙한 시스템이 좋은 예시가 된다.
카카오톡을 생각해보자. 기업이 공식 계정으로 메시지를 보내면 이름 옆에 파란색 인증 마크가 붙는데, 이는 금융기관이나 공공기관처럼 확인된 발신자라는 표시로, 사용자는 이 마크 하나로 피싱 메시지와 정상 메시지를 구분한다.
AI 생성 콘텐츠도 똑같이 해야 하는데, 사용자가 별도로 확인하지 않아도 플랫폼이 자동으로 'AI로 만든 콘텐츠입니다'라는 표시를 붙이는 방식이다.
메타는 이미 업계 표준 신호를 감지해 자동으로 라벨을 다는 방향을 밝혔지만 이건 개별 기업의 선택 사항이 아니라 모든 주요 플랫폼이 의무적으로 시행해야 하는 기본 안전장치가 되어야 한다. 마치 자동차 안전벨트가 운전자의 선택이 아닌 법적 의무인 것처럼 이는 디지털 안전의 기본값이어야 하는 것이다.
우리는 이미 비슷한 의무화 시스템을 운영하고 있다. 식품에는 원산지 표시가 의무고, 의약품에는 성분 표시가 의무인데, 이것들이 완벽하게 위조를 막지는 못하지만 의무이기 때문에 우리는 최소한의 신뢰를 갖고 물건을 살 수 있다. 디지털 콘텐츠도 마찬가지여야 한다.
물론 이것만으로 모든 문제가 해결되진 않는다. 워터마크를 제거하려는 시도는 계속될 것이고 메타데이터가 손실되는 경우도 있겠지만, 우리의 목표가 '완벽한 근절'일 필요는 없다. 지금처럼 가짜가 아무 표식 없이 자유롭게 퍼지는 상황을 막는 것만으로도 사회적 혼란을 줄이는 큰 진전이다.
지금 필요한 건 '플랫폼이 자율적으로 책임지길 기대한다'는 식의 접근이 아니라 산업 전체에 대한 법적 의무화다. AI 도구를 만드는 회사는 생성물에 강건한 신호를 의무적으로 심어야 하고, 플랫폼은 그 신호를 읽어서 반드시 표시해야 하며, 둘 다 C2PA 같은 국제 표준을 따라 서로 호환되게 만들어야 한다.
이것이 새로운 규제의 기본값이 돼야 한다.
눈으로 구분할 수 없다면 시스템이 의무적으로 구분해서 알려줘야 한다. 기술이 만든 문제는 결국 기술로 풀어야 한다. 하지만 그 기술의 적용을 시장의 선의에만 맡길 수는 없다. 규제와 법제화를 통한 의무화, 이것이 우리가 지금 결정해야 할 방향이다.
임기범 인공지능 전문가
▲ 서울과학종합대학원 대학교(aSSIST) 객원교수. ▲ 현 AI경영학회 상임이사 겸 학술분과 위원장. ▲ ㈜나루데이타 CTO 겸 연구소장. ▲ ㈜컴팩 CIO. ▲ 신한 DS 디지털 전략연구소장 역임.
<정리 : 이세영 기자>
seva@yna.co.kr
▶제보는 카카오톡 okjebo
▶연합뉴스 앱 지금 바로 다운받기~
▶네이버 연합뉴스 채널 구독하기
<저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
