컨텐츠 바로가기

06.28 (금)

오픈AI·구글 직원들 “AI 통제 못하면 인간 멸종”

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

전·현직 13명 부작용 경고 공동성명

“기업들 위험 간과… 이윤추구 앞세워”

현직 피해 우려 내부고발자 보호 당부

오픈AI 내부 기술 방향성 놓고 잡음도

인공지능(AI) 기술의 선두주자인 오픈AI와 구글 딥마인드 전현직 직원 13명이 공동 성명을 통해 AI의 위험을 경고하고, 기업들이 이 같은 위험을 간과하고 금전적인 이익을 앞세우고 있다고 지적했다. 이들은 내부고발자 보호를 당부했다.

세계일보

사진=로이터연합뉴스

<이미지를 클릭하시면 크게 보실 수 있습니다>


4일(현지시간) 뉴욕타임스(NYT) 등에 따르면 이들은 ‘진보된 AI에 대해 경고할 권리’라는 이름의 성명을 내고 “AI 시스템은 적절한 규제 없이는 심각한 위협을 야기할 수 있을 만큼 강력하다”며 “이 같은 위험은 존재하는 불평등을 심화하는 것부터 조작과 가짜정보, 잠재적으로 인간의 멸종을 초래하는 자율적 AI 시스템의 통제 상실까지 다양하다”고 지적했다.

이들은 “AI 기업은 이윤 추구를 목표로 제대로 된 감독을 하지 못하고 기업의 내부 규제 시스템만으로는 문제를 해결할 수 없다”며 “AI 기업은 다양한 종류의 위험 수준에 대한 상당한 비공개 정보를 보유하고 있지만 이런 정보 중 일부를 정부 및 시민사회와 공유할 의무가 약하고, (이들이) 자발적으로 공유할 것이라고 생각하지 않는다”고 강조했다.

이 공동 성명에는 오픈AI 전현직 직원 각각 7명과 4명, 구글 딥마인드 전현직 직원 각 1명이 이름을 올렸다. 윌리엄 선더스, 캐럴 웨인라이트, 제이컵 힐턴, 대니얼 지글러 등 오픈AI를 떠난 직원들은 이름을 밝혔지만 현직자를 포함해 6명은 익명을 요구했다. 이들은 “전현직 직원들은 대중에게 책임을 느끼는 몇 안되는 사람 중 하나이지만 회사와 광범위한 기밀유지 계약으로 우려를 표명할 수 없다”면서 내부고발자 보호를 촉구했다.

린지 홀드 오픈AI 대변인은 성명을 통해 “우리는 이 기술의 중요성을 고려할 때 엄격한 토론이 중요하다는 것에 동의한다”며 “전 세계의 정부, 시민사회 및 다른 지역 사회와 계속 협력할 것”이라고 밝혔다.

최근 오픈AI에서는 회사와 AI 기술 이용의 방향성을 놓고 내부 동요가 큰 것으로 알려졌다. 오픈AI는 챗GPT를 활용한 성인물 제작 허용을 검토하고 있으며, AI 안전성 연구팀인 슈퍼얼라인먼트 팀을 해체했다. AI 활용에서 책임을 우선할 것인지, 수익 창출에 더 집중할 것인지를 놓고 오픈AI 최고경영자(CEO)인 샘 올트먼과 갈등을 빚은 것으로 알려진 일리야 수츠케버 오픈AI 전 최고과학자는 회사를 떠났다. 회사 내에 견제 세력이 없다는 뜻이다. 이런 상황에서 오픈AI 직원들이 퇴사 시 회사를 비방할 경우 기존에 받았던 주식 등을 몰수당할 수 있다는 기밀유지계약서에 강제로 서명해야 했다는 폭로가 최근 나온 바 있다.

홍주형 기자 jhh@segye.com

ⓒ 세상을 보는 눈, 세계일보
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.