컨텐츠 바로가기

05.20 (월)

“AI 활용도 올바르게”, AI 윤리 시스템 구축하는 게임사들

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
최근 AI의 발전에 따라 게임업계에서도 AI를 적극적으로 활용하고 있다. 글로벌 게임 유통 플랫폼 ‘스팀’이 생성형 AI로 제작한 게임의 유통을 허락한 지 4개월 만에 약 1000개 이상의 AI 활용 작품이 출시된 것으로 알려졌을 정도다.

게임동아

출처: 엔바토엘리먼트

<이미지를 클릭하시면 크게 보실 수 있습니다>


다만 AI 활용이 보편화된 만큼 표절을 비롯한 저작권 침해, 비윤리적 표현 학습 및 생산 등에 대한 우려의 목소리도 커지고 있다. 지난 1월에는 해외 기술 전문지 ‘IEEE 스펙트럼’이 생성형 AI인 ‘미드저니’와 ‘달리3(DALL-E 3)’를 테스트한 결과, 간접적인 프롬포트만으로도 상표가 등록된 캐릭터와 매우 유사한 이미지가 만들어졌다고 밝힌 바 있다.

예를 들어 ‘고글을 쓴 노란색 3D 만화 캐릭터’라는 간단한 프롬포트를 입력했음에도 엄연히 저작권이 존재하는 ‘미니언즈’ 캐릭터가 만들어지는 식이다. 연구를 진행한 저자 게리 마커스(GARY MARCUS)와 리드 섀튼(SOUTHEN)은 “사용자가 원하지 않더라도 일부 생성 AI 시스템이 표절물을 출력해 저작권 문제를 일으킬 수 있다.”라고 지적했다.

이런 상황에서 AI 윤리 시스템을 구축해 안전하고 믿음직한 방식으로 AI를 활용하는 국내 게임사들이 주목을 받고 있다.

게임동아

넥슨 CI

<이미지를 클릭하시면 크게 보실 수 있습니다>


대표적인 예가 넥슨이다. 넥슨은 맞춤형 AI NPC, TTS 등 이용자 몰입감과 즐거움을 극대화하기 위해서 AI 활용 및 연구를 진행하는 만큼 윤리 강화에도 공을 들이고 있다. 넥슨 측 관계자의 설명에 따르면 데이터 과학 연구조직 ‘인텔리전스랩스’에서는 학습한 데이터에 대한 출처를 아카이빙하고 있으며, 의미 있는 데이터셋의 경우 저작권 소유 측과 협의하는 방향도 검토하고 있다.

이어서 게임 안팎으로 구현되는 정보나 대화에서 편향, 혐오, 차별적인 내용이 나오지 않도록 윤리 기준을 바탕으로 연구가 진행되는 중이다.

인 게임 내 매너에 대한 부분도 AI를 통해 예방하고 있다. 욕설 등의 유해 언어도 단순히 ‘금칙어’로 지정하는 대신, AI를 활용해 맥락을 따라 유해어를 탐지하며 건전한 게임 문화에 이바지하고 있다는 게 관계자의 설명이다.

넥슨의 한 관계자는 “넥슨은 다양한 외부 솔루션을 도입 및 검토하고, 여러 이용자 데이터들을 기반으로 AI를 연구하고 있다.”, “안전한 AI 환경 구축에 최선을 다하겠다.”라고 밝혔다.

게임동아

엔씨소프트 CI

<이미지를 클릭하시면 크게 보실 수 있습니다>


엔씨소프트(이하 엔씨)의 이야기도 빠질 수 없다. 회사는 AI 사업 조직인 ‘엔씨 리서치 센터’ 산하 AI 데이터실이 레드팀의 역할을 수행하며 AI 윤리 강화에 힘을 쏟고 있다. 일반적으로 레드팀은 소프트웨어 보안 강화 역할을 맡은 사내 조직을 의미하지만, AI 레드팀의 경우 SW의 취약점과 함께 AI 서비스의 윤리와 신뢰성까지 교차 검증하며 유해한 콘텐츠가 생산되는 것을 사전에 막는다.

엔씨의 한 관계자는 “AI 데이터실 언어데이터팀이 사내 품질보증(QA)팀과 정기적으로 AI 서비스의 윤리 보안 시스템을 관리하며 안전한 제품을 만들기 위해 노력하고 있다. 필요에 따라 보안을 담당하는 외부 전문 조직과 협업도 진행한다.”라고 설명했다.

AI 모델이 가진 자체적인 윤리 보안성을 강화하기도 한다. 리서치 센터 산하 연구 조직에서는 AI 모델에 ‘세이프티 파인튜닝’을 진행해 모델이 부정적인 콘텐츠를 학습하는 것을 스스로 차단한다. 모델에 별도의 세이프티 엔진을 탑재함으로써, 비윤리적인 발화를 생성하거나 적대적인 공격에도 원활히 대응할 수 있도록 조치한다는 것.

게임동아

NC AI 윤리 프레임워크

<이미지를 클릭하시면 크게 보실 수 있습니다>


여기서 그치지 않고 엔씨는 2021년 ESG 리포트를 통해 AI 윤리 원칙 ‘NC AI 윤리 프레임워크’를 마련한 바 있다. 이는 ‘데이터 보호’, ‘비편향성’, ‘투명성’ 등의 핵심 가치를 검토할 수 있도록 마련된 가이드라인이다.

실제로 회사는 해당 가이드라인을 게임 개발에 적극 반영해 ‘리니지W’, ‘리니지2M’ 등 주요 모바일 게임에서는 채팅에 ‘스팸 필터링 기술’을 적용한 뒤 13개 언어로 다양한 패턴의 광고 등을 식별해 차단하고 있다.

게임동아

크래프톤 CI

<이미지를 클릭하시면 크게 보실 수 있습니다>


크래프톤도 있다. 크래프톤은 비교적 최근인 2023년 4월 ‘크래프톤 AI 윤리위원회(이하 AI 윤리위원회)’를 설치해 적극적으로 AI 윤리 관련 시스템을 강화하고 있다.

AI윤리위원회는 AI 윤리 문제에 대한 지속적인 숙의와 토론을 위해 여러 조직의 구성원들(법무 팀, 데이터 팀, 프라이버시 팀 등)이 자원하는 방식으로 인원을 구성했다. 이들은 매월 정기적인 라운드 테이블을 진행해 AI 윤리 준칙과 강령을 수립하고, 다양한 AI 윤리 문제나 사례를 논의한다.

크래프톤의 한 관계자는 “크래프톤은 AI 연구나 개발 과정에서 발생할 수 있는 윤리 문제들을 미연에 방지하고, 선제적으로 대비하기 위해서 ‘크래프톤 AI 윤리위원회’를 설립하는 등의 노력을 기울이고 있다.”라고 말했다.

사용자 중심의 게임 저널 - 게임동아 (game.donga.com)


기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.