전·현직 13명 부작용 경고 공동성명
“기업들 위험 간과… 이윤추구 앞세워”
현직 피해 우려 내부고발자 보호 당부
오픈AI 내부 기술 방향성 놓고 잡음도
![]() |
사진=로이터연합뉴스 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
4일(현지시간) 뉴욕타임스(NYT) 등에 따르면 이들은 ‘진보된 AI에 대해 경고할 권리’라는 이름의 성명을 내고 “AI 시스템은 적절한 규제 없이는 심각한 위협을 야기할 수 있을 만큼 강력하다”며 “이 같은 위험은 존재하는 불평등을 심화하는 것부터 조작과 가짜정보, 잠재적으로 인간의 멸종을 초래하는 자율적 AI 시스템의 통제 상실까지 다양하다”고 지적했다.
이들은 “AI 기업은 이윤 추구를 목표로 제대로 된 감독을 하지 못하고 기업의 내부 규제 시스템만으로는 문제를 해결할 수 없다”며 “AI 기업은 다양한 종류의 위험 수준에 대한 상당한 비공개 정보를 보유하고 있지만 이런 정보 중 일부를 정부 및 시민사회와 공유할 의무가 약하고, (이들이) 자발적으로 공유할 것이라고 생각하지 않는다”고 강조했다.
이 공동 성명에는 오픈AI 전현직 직원 각각 7명과 4명, 구글 딥마인드 전현직 직원 각 1명이 이름을 올렸다. 윌리엄 선더스, 캐럴 웨인라이트, 제이컵 힐턴, 대니얼 지글러 등 오픈AI를 떠난 직원들은 이름을 밝혔지만 현직자를 포함해 6명은 익명을 요구했다. 이들은 “전현직 직원들은 대중에게 책임을 느끼는 몇 안되는 사람 중 하나이지만 회사와 광범위한 기밀유지 계약으로 우려를 표명할 수 없다”면서 내부고발자 보호를 촉구했다.
린지 홀드 오픈AI 대변인은 성명을 통해 “우리는 이 기술의 중요성을 고려할 때 엄격한 토론이 중요하다는 것에 동의한다”며 “전 세계의 정부, 시민사회 및 다른 지역 사회와 계속 협력할 것”이라고 밝혔다.
최근 오픈AI에서는 회사와 AI 기술 이용의 방향성을 놓고 내부 동요가 큰 것으로 알려졌다. 오픈AI는 챗GPT를 활용한 성인물 제작 허용을 검토하고 있으며, AI 안전성 연구팀인 슈퍼얼라인먼트 팀을 해체했다. AI 활용에서 책임을 우선할 것인지, 수익 창출에 더 집중할 것인지를 놓고 오픈AI 최고경영자(CEO)인 샘 올트먼과 갈등을 빚은 것으로 알려진 일리야 수츠케버 오픈AI 전 최고과학자는 회사를 떠났다. 회사 내에 견제 세력이 없다는 뜻이다. 이런 상황에서 오픈AI 직원들이 퇴사 시 회사를 비방할 경우 기존에 받았던 주식 등을 몰수당할 수 있다는 기밀유지계약서에 강제로 서명해야 했다는 폭로가 최근 나온 바 있다.
홍주형 기자 jhh@segye.com
ⓒ 세상을 보는 눈, 세계일보
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.