컨텐츠 바로가기

    12.06 (토)

    이슈 인공지능 시대가 열린다

    AI 시대의 새로운 위협 '섀도우 AI' 부상…기업 데이터 유출 리스크 심각

    댓글 첫 댓글을 작성해보세요
    주소복사가 완료되었습니다
    [AI리포터]
    디지털투데이

    <이미지를 클릭하시면 크게 보실 수 있습니다>


    [디지털투데이 AI리포터] 인공지능(AI)이 업무 방식과 의사결정을 혁신하고 있는 가운데, 섀도우 AI(Shadow AI)라는 새로운 문제가 부상하고 있다.

    16일(현지시간) IT매체 테크레이더에 따르면, 섀도우 AI는 직원들이 IT 부서의 승인이나 모니터링 없이 AI 툴을 사용하는 현상을 의미한다. AI 출력에 대한 맹신, 보안 교육 부족, 명확한 가이드라인 부재가 결합되면서 기밀 데이터, 지적 재산권, 심지어 의사결정 과정까지 통제 밖으로 벗어나고 있다. 효율성을 높이기 위한 도구가 오히려 보안 위협을 가중시키는 상황이다.

    섀도우 AI의 급증은 악의적인 의도가 아니라 인식 부족에서 비롯된다. 개인 생활에서 AI를 사용하는 직원들이 이를 업무에 도입하면서, 승인된 시스템에서도 안전할 것이라고 착각한다. 그러나 많은 기업들이 AI 사용 가이드라인을 마련하지 못하면서, 직원들은 독자적으로 AI를 활용하고 있다. 이는 과거 '섀도우 IT'(Shadow IT)와 유사하지만, AI는 데이터를 변환하고 학습하기 때문에 리스크가 훨씬 크다.

    관리되지 않은 AI 사용은 다양한 리스크를 초래한다. 가장 즉각적인 문제는 데이터 유출이다. 올해 발생한 딥시크(DeepSeek) 유출 사건에서처럼, 직원들이 기밀 정보를 외부 AI 툴에 입력하면 데이터가 저장되거나 모델 학습에 활용될 수 있다. 이는 유럽 일반 개인정보 보호법(GDPR), 미국 의료정보보호법(HIPAA) 같은 데이터 보호법 위반으로 이어질 수 있으며, 일부 경우에는 데이터 스파이 활동으로까지 확대될 수 있다. 미국과 유럽의 여러 정부 기관이 자국 내 AI 툴 사용을 금지한 것도 이러한 이유 때문이다.

    기업들은 섀도우 AI 문제를 해결하기 위해 AI 사용 현황을 파악하고 명확한 정책을 수립해야 한다. 직원들에게 AI 사용 가이드라인을 제공하고, 승인된 AI 툴을 배포해 무단 사용을 줄여야 한다. 또한 AI 보안 체계를 강화해 특정 모델 접근을 통제하고 데이터 유출을 방지하는 기술적 조치도 필요하다.

    <저작권자 Copyright ⓒ 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지>
    기사가 속한 카테고리는 언론사가 분류합니다.
    언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.