컨텐츠 바로가기

11.01 (금)

개발이냐 통제냐…'마법의 은탄환'은 없다

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
<앵커>

AI 기술이 이렇게 여러 문제를 낳고는 있지만, 이게 주는 편리함도 무시할 수 없다는 목소리도 많습니다. 그렇다면 AI가 우리를 돕는 '유용한' 도구로만 기능을 하게 하려면 이걸 만드는 인간들은 어떤 고민을 해야 할지 세계적인 석학들을 만나 이야기를 들어봤습니다.

이어서 엄민재 기자입니다.

<기자>

사용자 명령에 따라 직접 검색 사이트를 열고, 커서를 움직여 웹사이트를 클릭하고,

[뭔가를 찾은 것 같네요. 좋아요.]

지도에서 경로를 확인한 뒤, 일출을 볼 수 있는 최적의 장소, 시간, 복장 등을 추천해 이메일로 보내줍니다.

스스로 컴퓨터를 조작하고 판단까지 하는 AI 기술입니다.

앤스로픽에 이어 구글과 오픈AI 등도 이렇게 '컴퓨터를 사용할 줄 아는 AI 비서'를 곧 내놓을 예정입니다.

빅테크들이 AI 기술 수준을 과시하고, 젠슨 황은, 또 머스크는, 인간 지능을 뛰어넘는 일반인공지능, AGI의 시대가 곧 도래할 것처럼 끊임없이 기대와 공포를 주입합니다.

스튜어트 러셀 버클리대 교수, 인류 역사상 가장 큰 투자가 필요하게 된 AI 산업이 돈을 끌어모으기 위한 전략으로 봅니다.

더 많은 자본 유치를 위해 기술 개발에 매달리고, 'AI 안전'은 뒷전으로 밀고 AI에 대한 규제에 완강히 반대한다는 겁니다.

[스튜어트 러셀/UC버클리대 교수 : 우리는 지금 전투의 한가운데에 있습니다. AI 안전을 주장하는 진영은 몇백 명에 불과하지만, 기업들은 15조 달러의 자산을 가지고 있습니다. 누가 이길지 지켜봐야 할 겁니다.]

제임스 랜데이 스탠퍼드대 교수.

AI에 대한 낙관, 또는 비관에 앞서 당장 우리가 맞닥뜨린 현실의 문제들에 집중해야 한다고 했습니다.

[제임스 랜데이/스탠퍼드대 교수 : 이런 복잡한 문제를 해결하기 위해서는 다양한 접근이 필요합니다. (AI가 초래한) 차별이나 기술의 남용과 같은 문제들에 있어서 단 하나의 해결책, '은탄환'은 없습니다.]

이들이 얘기하는 해법은 자본의 속도에 매몰되지 않는 것.

즉, AI 시스템을 인간의 가치와 의도, 윤리와 일치시키려는 의지입니다.

[스튜어트 러셀/UC버클리대 교수 : 우리는 '레드 라인'이라는 개념을 요구하고 있습니다. AI 시스템이 절대로 스스로 복제되지 않으며 다른 컴퓨터 시스템을 침범하지 않고 절대로 인간을 해치지 않을 것이라는 공식적인 보장을 해야 한다는 겁니다.]

[제임스 랜데이/스탠퍼드대 교수 : 더 나은 교육을 통해 대중이 무엇을 사용하고 있는지 이해하게 하고 (AI 개발자들에게도) 더 나은 설계와 기술을 요구함으로써 일부 문제를 줄일 수 있지만, 어떤 일들은 여전히 발생할 수 있고 그런 경우 법과 규제를 통한 제재가 필요합니다.]

인간을 돕는 도구로서의 AI 개발을 장려하면서 통제권을 잃지 않는 어려운 과제가 우리 앞에 놓여 있습니다.

(영상취재 : 황인석, 영상편집 : 윤태호, 디자인 : 장예은)

※본 보도는 한국언론진흥재단의 정부광고 수수료를 지원받아 제작되었습니다.

엄민재 기자 happymj@sbs.co.kr

▶ 네이버에서 SBS뉴스를 구독해주세요!
▶ 가장 확실한 SBS 제보 [클릭!]
* 제보하기: sbs8news@sbs.co.kr / 02-2113-6000 / 카카오톡 @SBS제보

Copyright ⓒ SBS. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.