컨텐츠 바로가기

    12.24 (수)

    이슈 인공지능 시대가 열린다

    AI 시대의 맹점…챗봇 대화에 쌓이는 민감 정보

    댓글 첫 댓글을 작성해보세요
    주소복사가 완료되었습니다
    [AI리포터]
    디지털투데이

    <이미지를 클릭하시면 크게 보실 수 있습니다>


    [디지털투데이 AI리포터] AI 챗봇과 나누는 대화는 사적인 대화처럼 느껴질 수 있지만, 반드시 비공개로 보호된다고 보기는 어렵다.

    18일(현지시간) IT매체 테크크런치에 따르면, 메타의 외주 계약자들이 AI 대화 내용을 검토하는 과정에서 건강 정보와 금융 기록 등 개인 신상이 포함된 사례가 다수 확인됐다. 이는 AI 사용 과정에서 개인정보가 노출될 수 있는 위험성을 보여주는 경고 신호로 해석된다.

    대다수 사용자는 AI에게 문서 전체를 공유하면서도 그 안에 포함된 민감한 정보를 인식하지 못하는 경우가 많다. 생년월일이나 계좌번호와 같은 정보는 단독으로는 큰 문제가 없어 보일 수 있지만, 여러 정보가 결합될 경우 개인을 식별할 수 있는 치명적인 개인정보가 된다.

    AI 시대에 데이터 정제는 선택이 아닌 필수로 떠오르고 있다. 이를 소홀히 할 경우 민감한 정보가 AI 학습 데이터에 포함돼 장기간, 또는 사실상 영구적으로 남을 수 있다. 특히 AI 챗봇이 은행, 의료, 정부 등 민감한 영역으로 빠르게 확산되면서 보안 문제는 더욱 중요해지고 있다.

    이에 따라 기업은 AI 대화 기록의 보관 기간과 활용 목적을 명확히 규정해야 하며, 사용자는 AI와의 대화를 일시적인 채팅이 아닌 장기 보관될 수 있는 데이터로 인식할 필요가 있다. 단순히 데이터 축소를 강조하더라도, 불필요하거나 민감한 정보가 장기간 저장된다면 보안 위험은 해소되지 않는다. 소비자 역시 AI와의 대화에서 불필요한 정보 제공을 최소화해야 한다.

    아울러 정보를 가리는 것만으로는 충분하지 않다는 지적도 나온다. 화면상에서 가린 정보라도 파일 내부에는 그대로 남아 있을 수 있기 때문이다. 진정한 보안은 정보의 영구적인 삭제를 의미하며, 이를 소홀히 할 경우 기업은 규제 리스크와 함께 고객 신뢰 상실이라는 부담을 안게 된다.

    AI 시대의 보안은 단순한 기술 문제가 아니라 기업의 신뢰와 직결된 과제다. 기업이 데이터 처리 방식을 투명하게 공개하고, 소비자에게 정보 삭제에 대한 실질적인 권한을 제공할 때 비로소 신뢰를 확보할 수 있다. 보안이 경쟁력이 되는 시장 환경에서, 개인정보 보호를 우선하는 기업만이 지속적인 성장을 이어갈 수 있을 것으로 보인다.

    <저작권자 Copyright ⓒ 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지>
    기사가 속한 카테고리는 언론사가 분류합니다.
    언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.