컨텐츠 바로가기

11.23 (토)

이슈 인공지능 윤리 논쟁

AI 안정성 확보 속도 내는 산업계… "2024년은 AI 윤리의 해"

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
디지털데일리

<이미지를 클릭하시면 크게 보실 수 있습니다>


[디지털데일리 이종현기자] 생성형 인공지능(AI)에 대한 규범 마련이 필요하다는 목소리가 커지는 가운데 산업계에서 선제적인 대응에 나섰다. 생성형 AI로 말미암은 피해가 생기지 않도록 기업 내부에 AI 관련 윤리 조직을 신설하고 가이드라인을 마련하는 중이다.

‘하이퍼클로바X’ 등 생성형 AI를 이용한 서비스를 내놓으며 주목받고 있는 네이버도 이런 흐름에 발맞추고 있다. 연초 AI 안전성 연구를 전담하는 조직 ‘퓨처 AI 센터’를 신설했다. 하정우 네이버클라우드 AI 이노베이션 센터장이 이를 이끈다.

하정우 센터장은 사회관계망서비스(SNS)를 통해 “안전하고 책임감 있는 AI를 포함한 미래 지속가능한 AI를 위해 최고경영자(CEO) 직속으로 퓨처 AI 센터가 신설됐다. 네이버는 국가대표 AI 기업으로서 AI를 통한 혁신뿐 아니라 안전한 AI를 위한 노력에서도 국내 AI 기업들의 맏형으로서 리더십을 발휘하겠다”고 말했다.

또 “2024년은 AI 안전성을 중심으로 한 글로벌 AI 신질서가 만들어질 중요한 시간인데 네이버는 물론 우리나라가 글로벌 AI 리더십을 갖도록 열심히 기여하겠다”며 “신설 센터는 선행연구개발이나 데이터 구축 등 기술적인 부분은 물론 안전한 AI를 위한 법, 제도, 정책적인 부분까지 고려한다”고 전했다.

네이버는 작년 10월 대규모언어모델(LLM) 하이퍼클로바X를 공개했다. 해당 모델을 검색·쇼핑 등 자체 사업에 적용돼 경쟁력을 강화하는 동시에 네이버클라우드를 통해 기업(B2B)‧공공(B2G) 고객을 대상으로 AI 서비스를 제공한다는 전략인데, 퓨처 AI 센터가 AI 윤리 전반에 대한 검토를 하게 될 것으로 보인다.

◆카카오, 넥슨, 엔씨소프트도 AI 개발‧윤리 집중

카카오도 2022년 ‘기술윤리위원회’를 출범시키고 ‘인권과 기술윤리팀’을 신설했다. 기술윤리위원회는 AI 윤리 준수 여부를 감시할 정책을 만들고 적용하는 기구로 기능한다. 인권과 기술윤리팀이 방향성을 제시하면 각 계열사 대표나 최고기술책임자(CTO)가 참여하는 위원회에서 기술‧서비스 내용을 점검하는 방식이다.

지난달 15일에는 스위스 제네바 UN 회의장에서 진행된 국제행사에서 AI 윤리 정책을 공유하는 등 외부 활동도 이어가고 있다. 이채영 카카오 공동체 기술윤리위원회 위원장은 행사에서 “사회적 책임에 걸맞은 윤리적 규범과 원칙에 대해 고민하고 기술을 활용한 서비스를 제공할 때 윤리적 접근 방식을 고려하는 것은 매우 가치 있고 중요한 일”이라고 피력한 바 있다.

AI에 집중하고 있는 게임사들도 기술 개발과 함께 윤리 문제 대응에 나서고 있다. 넥슨은 2017년 인텔리전스랩스(전 분석본부)를 설립해 운영 중이다. 인텔리전스랩스는 생성형 AI에 대한 연구 및 활용과 함께 AI 윤리 정책에도 집중하고 있다. 특정 가치에 편향되거나 사회적인 차별을 강화하지 않도록 하는 등의 기준을 마련하고, 프라이버시나 아동‧청소년이 부적절한 환경으로부터 보호받을 수 있도록 서비스를 설계하는 등이 예시다.

국내에서 6번째로 자체 개발한 LLM ‘바르코 LLM’을 공개한 엔씨소프트도 AI 윤리에 적극적이다. 인터넷에 공개된 내용이라 하더라도 무분별하게 수집하지 않고 여러 경로를 통해 검증된 웹사이트만 학습에 반영하는 등의 AI 윤리 엔진을 적용했다.

엔씨소프트는 바르코 LLM을 기반으로 게임 스토리 자동 생성, 디지털 휴먼 논플레이어캐릭터(NPC) 생성, AI 일러스트 제작 등에 활용할 수 있도록 하는 ‘바르코 스튜디오’를 개발했다. 현재 게임 외 차량, 바이오, 금융, 교육 등 타 산업과도 협력을 이어가는 중이다.

디지털데일리

<이미지를 클릭하시면 크게 보실 수 있습니다>


◆AI 윤리에 한발 앞선 빅테크… MS‧구글이 논의 주도

국내 기업들이 AI 윤리에 대한 대응에 나서고 있지만 이 분야에서 한발 앞선 것은 마이크로소프트(MS)와 구글과 같은 AI 빅테크 기업들이다.

오픈AI와 함께 AI 분야 선두주자로 자리매김한 MS는 ‘책임 있는 AI’를 강조한다. 그 일환으로 2018년부터 공격자 관점에서 AI 시스템의 오류를 조사하는 전문 그룹 ‘AI 레드팀’을 설립해 운영하는 중이다. AI 서비스가 출시되기 전 AI 레드팀 전문가들이 사전에 위험성을 조사하는 작업을 거친다.

대규모언어모델(LLM)과 같은 AI 모델부터 이를 응용한 애플리케이션(앱) 단계에서 각각 검증이 이뤄진다. 현재 서비스되고 있는 ‘빙챗’ 등도 이런 과정을 거쳤다. 빙챗의 근간이 되는 LLM인 GPT-4에 대한 안정성 검증을 수행한 뒤 이를 이용해 만들어진 챗봇 앱인 빙챗에 대해서도 오류가 있는지 검증을 거쳤다.

오픈AI-MS 동맹의 부각 전부터 AI 분야 최고 기업으로 꼽혀 온 구글도 사회적으로 유익하고, 부당한 편견을 조성하지 않으며 안전한 AI를 개발토록 한다는 ‘AI 원칙’을 세웠다. 전담 AI 윤리팀이 머신러닝(ML) 공정성, 보안, 개인정보보호, 인권 등에 대한 전반적인 검톨를 수행한다.

구글은 작년 10월 블로그를 통해 “AI를 대담하게 개발하면서도 책임감 있게 사용하는 것이 필수”라며 “AI 기술의 책임감 있는 도입에 있어 중요한 것은 안전 및 보안 위험을 광범위하게 예측하고 테스트해야 한다는 것이다. AI가 생성한 이미지로 야기하는 위험이 그 예다. 구글은 AI 원칙을 기반으로 생성형 AI 기능에 보호 수단을 기본 옵션으로 내장하고 있다”고 밝혔다.

◆2023년은 생성형 AI의 해, 2024년은 AI 윤리의 해?

AI 윤리에 대한 논의는 한층 가속될 것으로 보인다. 지난 연말 전 세계를 떠들썩하게 만든 오픈AI의 최고경영자(CEO) 샘 올트먼(Sam Altman)의 해임 소동도 AI 안전성과 수익성 사이에서 생긴 갈등이 원인으로 전해진다. 수익성을 추구하는 샘 올트먼을 오픈AI의 이사회가 해고했다가 번복된 사례인데, 헤프닝으로 끝났지만 시사하는 바가 적지 않다.

지난달 유럽연합(EU)이 AI를 규제하는 내용의 법안에 합의한 것이 시발점이 될 것으로 보인다. 해당 법은 AI의 위험 수준을 지정해 ▲허용할 수 없는 위험 ▲고위험 ▲저위험 또는 최소한의 위험 등으로 구분해 차등적으로 규제하는 것이 골자다. 이중 허용할 수 없는 위험을 지닌 AI는 금지하고, 고위험 AI에 대해서는 철저한 요구사항을 부과한다.

생성형 AI에 대한 규제도 명확히 했다. 생성형 AI의 설계, 개발 과정에서의 법률 준수는 물론이고 생성되는 콘텐츠가 EU 법률 및 회원국의 저작권법에 위반하지 않도록 할 것, 또 저작권법의 보호 대상인 훈련 데이터를 사용하는 경우 그 내용을 구체적으로 공개할 것 등의 내용을 포함했다.

AI 산업 진흥에 공을 들여온 미국 역시도 자국의 안전에 위험을 가할 수 있는 AI 개발자는 안전 검사 결과를 제출토록 행정명령을 발표했다. EU에 비해 여전히 진흥에 정책 초점이 맞춰져 있긴 하나 미국도 AI에 대한 규제 논의를 본격화한 사례로 볼 수 있다는 것이 전문가들의 의견이다.

국내에서도 AI 진흥과 규제를 한데 모은 ‘AI 산업 육성 및 신뢰 기반 조성 등에 관한 법률안(이하 AI 기본법)’이 국회 상임위원회에 제출된 상태다. AI 전문가들은 “2023년이 생성형 AI가 등장한 해였다면 2024년은 AI 윤리에 대한 고민이 본격화되는 해가 될 것”이라고 올해를 전망했다.

- Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지 -
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.