컨텐츠 바로가기

09.19 (목)

이슈 인공지능 시대가 열린다

오픈AI, ‘안전·보안위원회’ 독립기구로 운영…샘 올트먼은 물러나

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
한겨레

에이피(AP)/연합뉴스

<이미지를 클릭하시면 크게 보실 수 있습니다>


오픈에이아이(AI)가 인공지능 기술 안전과 윤리 문제를 검토하기 위해 지난 5월 꾸린 안전·보안위원회(위원회)를 이사회 감독위원회로 격상했다.



오픈에이아이는 16일(현지시각) 이런 내용을 발표하며 지난달 이사회에 합류한 지코 콜터 카네기멜런대 머신러닝(기계학습) 교수를 위원장으로 선임했다고 밝혔다. 샘 올트먼 최고경영자(CEO)와 브렛 테일러 이사회 의장 등 기존에 위원회를 이끌었던 주요 인사들은 자리에서 물러났다. 오픈에이아이는 “위원회는 주요 모델 출시를 위한 안전 평가에 대해 경영진의 보고를 받게 되며, 이사회와 함께 안전 문제가 해결될 때까지 모델 출시를 연기할 수 있는 권한 등 감독권을 행사할 것”이라고 설명했다.



위원회는 지난 5월 출범 때 이윤추구를 위해 ‘안전한 인공지능’ 개발을 도외시한다고 비판받는 샘 올트먼이 합류하면서 그 실효성에 의문이 제기됐다. 당시 샘 올트먼은 인공지능 모델 ‘지피티-4오’(GPT-4o)에 배우 스칼릿 조핸슨 목소리를 도용했다는 논란에 휩싸였다.



샘 올트먼이 물러났지만, 회사 안팎의 평가는 싸늘하다. 타임지는 오픈에이아이 전 이사회 멤버인 헬렌 토너와 타샤 맥컬리의 말을 빌려 “독립적인 이사회를 구성하는 것만으로는 회사가 직면한 (인공지능의 안전 문제와 상충하는) 강력한 수익 인센티브에 대한 균형을 맞추기에 충분하지 않다”고 꼬집었다.



이런 가운데 오픈에이아이가 지난 12일(현지시각) 공개한 새로운 인공지능 모델 ‘오픈에이아이 오1(o1)’도 안전성 문제에 휘말리고 있다. 파이낸셜타임즈(FT)는 단계별 추론을 수행하는 오픈에이아이 오1의 오남용 가능성을 우려하며 “최신 인공지능 모델이 범용인공지능(AGI)으로 발전함에 따라 적절한 안전 장치가 없다면 (AI 기술로 인한) 위험이 계속 증가할 것”(요슈아 벤지오 캐나다 몬트리올대 교수)이란 전문가 의견을 전했다.



선담은 기자 sun@hani.co.kr



▶▶권력에 타협하지 않는 언론, 한겨레 [후원하기]

▶▶한겨레 뉴스레터 모아보기

▶▶행운을 높이는 오늘의 운세, 타로, 메뉴 추천 [확인하기]


기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.