컨텐츠 바로가기

03.14 (금)

이슈 인공지능 시대가 열린다

'딥시크 發' 생성AI 리스크 우려... 국정원·행안부·KISA 등 잇단 보안권고

0
댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

[서울=뉴시스] 김명원 기자 = 정부 부처들이 6일 중국 인공지능 딥시크(Deepseek) 접속 차단에 대거 나선 가운데 6일 서울 종로구 정부서울청사 사무실에서 공무원들이 업무를 보고 있다. 2025.02.06. /사진=김명원

<이미지를 클릭하시면 크게 보실 수 있습니다>



보안 위험을 우려해 주요 기업과 금융업계, 정부·공공기관이 잇따라 중국 AI(인공지능) 기업 딥시크가 만든 AI 모델의 사용을 제한하는 가운데 한국인터넷진흥원(KISA)도 생성형 AI를 안전하게 활용하는 방안을 알리고 있다.

KISA는 C-TAS(사이버 위협정보 공유 시스템)에 '생성형 AI 사용 관련 주의 보안 권고'라는 제목의 실시간 상황 전파문을 통해 일반 사용자와 기업이 생성형 AI를 사용할 때 주의해야 할 사항을 7일 안내했다.

생성형 AI란 명령어를 통해 사용자의 의도를 이해하고 주어진 데이터로 스스로 학습해 텍스트(문자), 이미지, 음성, 동영상 등 새로운 콘텐츠를 만들어내는 AI를 일컫는다. 생성형 AI가 업무 효율 등을 높이는 데 쓰이기도 하지만 악의적 목적으로 악성코드를 만들거나 사람을 속이기 위한 피싱 메일, 해킹 공격툴 제작 등에 활용될 수 있다.

일반 사용자는 AI 서비스에 주민등록번호나 전화번호, 주소, 금융정보 등 개인 정보를 입력하지 않도록 주의해야 한다. AI가 생성한 정보는 오류가 포함될 수 있기 때문에 해당 결과물을 활용할 때 사실 여부도 반드시 확인해야 한다. 출처가 불분명한 이메일이나 링크를 클릭하기 전에 반드시 신뢰할 만한 발신자로부터 온 것인지도 봐야 한다. AI 기반 코드 생성기를 사용할 때도 보안 솔루션을 활용해 위험 요소가 없는지 확인할 필요가 있다. AI를 활용한 악성코드 제작이 늘고 있어서다.

기업은 회사 내부 문서나 소스코드, 고객 정보 등 기밀 데이터를 AI 서비스에 입력하지 않도록 주의를 기울여야 한다. AI 서비스 사용 로그를 기록하고 내부망에서 무단으로 사용할 수 없도록 접근 통제 정책도 적용해야 한다. 콘텐츠에 대한 출처를 검증하고 결과물을 검수하는 프로세스도 수립해 이행해야 한다. 자동화된 해킹이나 사회공학 공격 등 AI를 이용한 사이버 공격 대응 방안도 마련할 필요가 있다.

한편 딥시크가 사용자 개인정보를 무단 수집해 중국 내 서버에 저장한다는 의혹이 제기되며 국내에서는 정부·공공 기관은 물론 재계, 금융계 등에서 딥시크 차단 조치를 잇따라 내리고 있다. 행정안전부가 중앙 부처와 17개 광역 지방자치단체에 AI 사용 유의 공문을 냈다. 국가정보원도 2023년 챗GPT 등 생성형 AI를 사용할 때 민감정보 입력을 금지하라는 등 내용의 공지를 낸 바 있고 이달 3일에도 해당 지침을 재차 강조하는 공문을 보냈다.

이외에도 과학기술정보통신부, 산업통상자원부, 외교부, 국방부, 문화체육관광부, 환경부, 공정거래위원회, 보건복지부, 여성가족부 등이 차단 조치에 참여했다. 한국거래소, 교보증권 등도 딥시크 접속을 막았다. 네이버(NAVER), 카카오, 삼성전자, LG전자, SK하이닉스 등도 딥시크 차단 행렬에 동참했다.

황국상 기자 gshwang@mt.co.kr

ⓒ 머니투데이 & mt.co.kr, 무단 전재 및 재배포 금지
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.