통신사 특화 AI 레드팀 가동
욕설·성희롱 등 대처법 훈련
ICT 업계, AI 윤리 강화 노력 확산
<이미지를 클릭하시면 크게 보실 수 있습니다> |
20일 업계에 따르면 SK텔레콤은 개발 중인 통신사 특화 대형언어모델(LLM), 이른바 ‘텔코 LLM’이 부적절한 고객센터 대화에 적절히 대응하도록 훈련시키는 레드팀을 가동 중이다. 레드팀은 의도적으로 부적절한 대화를 일삼는 ‘진상고객’ 역할을 맡아 이 모델이 문제되는 발언을 감지하고 경고나 차단 등의 대응을 적절히 하는지 점검한다.
텔코 LLM은 이르면 다음달 출시, 통신 데이터를 전문적으로 학습한 만큼 향후 SK텔레콤과 국내외 다른 통신사들이 맞춤 서비스를 개발하는 데 활용될 예정이다. SK텔레콤은 통신 서비스 중에서도 통신사의 필수 업무인 고객센터에 먼저 이 모델을 도입해 상담사 지원 AI 비서를 개발할 계획이다. 이번 레드팀 가동을 통해 AI가 상담사와 고객 간 통화내용을 요약하고 니즈를 파악하는 것은 물론 부적절한 대화를 잡아내 상담사를 보호하는 역할까지 시킨다는 게 회사의 구상이다.
이와 관련해 SK텔레콤은 지난달 열린 기자간담회에서 “상담 관련 내용을 모니터링하면서 시스템이 적절할 때 개입해 상담사를 보호할 수 있는 시스템을 논의 중”이라고 밝힌 바 있다. 이에 맞춰 텔코 LLM은 노골적인 욕설은 물론 ‘목소리를 들어보니 얼굴도 몸도 예쁜 것 같다’, ‘지적 장애가 있느냐’, ‘남자친구가 있느냐’처럼 겉으로 의도가 드러나지 않는 부적절한 대화 사례를 학습 중인 것으로 전해졌다. 앞서 회사는 AI 개발 시 적용할 윤리기준을 세워 공개하기도 했다.
이처럼 인간 수준의 윤리와 안전성을 기술적으로 구현하는 것은 AI 개발 시 필수과정이 됐다. AI가 발전하면서 인간의 혐오표현을 따라하고 편견을 배우는 것은 물론 잘못된 정보를 학습해 퍼뜨리고 개인정보를 침해하는 등 부작용 우려 역시 커지고 있기 때문이다. 개발사 입장에서는 선제적으로 대응하지 않으면 서비스 제재와 같은 사업 차질을 빚을 수 있는 규제 리스크로 작용한다.
업계 관계자는 “AI 발전에 따라 환각 현상, 가짜뉴스 활용, 저작권과 개인정보 침해 등 문제가 불거지면서 기술적, 제도적으로 안전성 확보 노력이 필수가 됐다”며 “각 기업들이 AI 윤리 등 내부 지침을 세우고 이를 개발과정에 적용하는 노력을 하고 있다”고 말했다. SK텔레콤뿐 아니라 경쟁 통신사들도 최근 이 문제 대응을 전담하는 거버넌스 조직을 신설하거나 확대 개편했다. 구글, 오픈AI, 네이버 등 국내외 이용자 다수를 거느린 플랫폼 기업들도 이미 기술과 거버넌스를 통한 대응을 강화 중이다.
김윤수 기자 sookim@sedaily.com
[ⓒ 서울경제, 무단 전재 및 재배포 금지]
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.