컨텐츠 바로가기

    02.24 (화)

    이슈 IT기업 이모저모

    AI 도둑 잡아라…구글, 제미나이 복제 공격 차단

    댓글 첫 댓글을 작성해보세요
    주소복사가 완료되었습니다
    [AI리포터]
    디지털투데이

    구글 제미나이(Gemini) [사진: 셔터스톡]

    <이미지를 클릭하시면 크게 보실 수 있습니다>


    [디지털투데이 AI리포터] 구글이 자사 생성형 인공지능(AI) 제미나이를 대상으로 대규모 프롬프트 입력을 통해 기능을 복제하려는 시도가 잇따르고 있다고 밝히며, 이를 지식재산권 침해 행위로 규정했다.

    12일(현지시간) IT매체 아스테크니카에 따르면, 구글은 최근 상업적 목적의 일부 주체들이 제미나이에 10만회 이상 프롬프트를 입력해 응답을 수집하고, 이를 활용해 저가형 복제 모델을 만들려 했다고 공개했다. 구글은 이 같은 행위를 모델 추출로 규정하며, 내부 위협 평가 보고서를 통해 대응 현황을 설명했다.

    구글은 이러한 방식이 사실상 AI 모델의 역설계에 해당한다고 보고 있으며, 대부분의 가해자는 경쟁력을 확보하려는 민간 기업이나 연구진으로 추정된다고 밝혔다. 다만 구체적인 대상은 공개하지 않았다. 구글은 해당 공격을 탐지한 뒤 제미나이의 방어 체계를 조정했다고 설명했지만, 구체적인 대응 방식은 밝히지 않았다.

    업계에서는 이 같은 기술을 증류(distillation) 방식으로 부르며, 기존 대형 언어모델의 출력 데이터를 활용해 소형 모델을 학습시키는 방법으로 활용돼 왔다. 실제로 오픈AI는 중국 AI 기업 딥시크가 자사 모델을 증류 방식으로 활용했다고 주장한 바 있으며, 메타의 라마 유출 이후 스탠퍼드대 연구진이 이를 기반으로 모델을 개발한 사례도 있었다.

    또한 일론 머스크가 설립한 xAI의 챗봇 그록과 마이크로소프트의 소형 AI 모델 개발 사례 등에서도 증류 기법이 활용돼 왔다. 전문가들은 공개 API를 통해 AI 모델이 제공되는 한 완전한 복제 차단은 어렵다고 지적하며, 향후 표준 기술 활용과 불법 복제의 경계를 둘러싼 법적 논쟁이 본격화될 가능성이 크다고 전망하고 있다.

    <저작권자 Copyright ⓒ 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지>
    기사가 속한 카테고리는 언론사가 분류합니다.
    언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.