컨텐츠 바로가기

05.24 (금)

유네스코 "여성 목소리의 AI 비서, 성 편견 부추겨"

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

"아마존 알렉사·애플 시리 등 가부장적 생각 복제"…사용자가 선택권 가져야

연합뉴스

시리와 대화하는 애플 공동 창업자 스티브 워즈니악
[EPA=연합뉴스]



(서울=연합뉴스) 김승욱 기자 = 여성의 목소리로 작동하는 AI(인공지능) 비서들이 성적 편견을 부추기고 가부장제를 강화하고 있다는 지적이 나왔다.

유네스코는 AI 비서들이 "가부장적인 생각을 복제하고 있으며, 여성은 순종적이고 형편없는 대우도 참고 견딘다는 성적 편견을 강화한다"는 내용의 보고서를 발표했다고 영국 일간 더타임스가 21일(현지시간) 전했다.

아마존의 알렉사나 애플의 시리 같은 AI 비서들은 여성을 버튼 조작이나 퉁명스런 목소리 호출만으로도 이용할 수 있는 '고분고분한 도우미'로 인식하게 한다고 보고서는 지적했다.

이에 대해 여성주의자들은 이미 기술 기업들이 여성 목소리의 AI 비서를 채택함으로써 여성은 부차적이고 남성은 주된 존재라는 구시대적인 고정관념을 퍼뜨린다고 비판해왔다.

보고서는 특히 애플의 시리를 지목했다. 시리 여성 목소리 버전은 참을성 있을 뿐 아니라 때로는 남성의 성적 접근과 괴롭힘에도 솔깃한 반응을 보이는 여성이라는 환상을 제공한다는 이유에서다.

이는 기술 기업의 압도적인 남성 위주의 기술팀이 만든 결과라고 연구진은 분석했다.

유네스코는 대화 시작 전 AI 비서가 인간이 아니라는 언급을 하도록 설정하라고권장했다. 또 여성 목소리 기본 설정을 중단해야 하며 사용자에게 성 중립적인 옵션을 포함한 선택권을 부여해야 한다고 유네스코는 제안했다.

영국에서는 시리의 초기 설정이 남성 목소리로 돼 있으며, AI 비서에게 성차별적인 언어를 사용하지 못하게 하고 있다.

가령 사용자가 성적인 요구를 할 경우 AI 비서는 단호하게 "아니오" 또는 "그것은 적절하지 않다"는 식의 답을 하게 돼 있다.

연합뉴스

애플 AI 비서 시리
[플리커 제공]



kind3@yna.co.kr



<저작권자(c) 연합뉴스, 무단 전재-재배포 금지>
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.