컨텐츠 바로가기

06.30 (일)

[AWS 공공서밋 2024] “책임 있는 AI 사용, 혁신과 규제 사이 균형 찾아야”

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
디지털데일리

<이미지를 클릭하시면 크게 보실 수 있습니다>


[디지털데일리 권하영기자] 생성형 인공지능(AI) 혁명이 가속화되면서 기술 혁신에 관한 기대만큼이나 또 다른 우려를 낳고 있다. 거짓 정보를 쏟아내는 생성형 AI의 환각(Hallucination) 현상은 우리 사회에 많은 혼란을 야기할 위험이 있으며, 딥페이크와 같이 AI를 악의적으로 사용하는 사례들도 이미 빈번하게 일어나고 있다.

이러한 이유로 전세계 각국 정부와 입법기관들은 AI에 관한 규제 담론을 조심스럽게 시작하고 있다. 유럽에서는 이미 AI에 대한 규제 법안이 통과됐고, 한국도 AI기본법 제정을 준비 중이다. 문제는 이러한 규제가 폭발적인 기술의 발전 속도를 따라가면서 이를 저해하지 않을 수준으로 민감하게 다뤄져야 한다는 점이다.

이와 관련해, 아마존웹서비스(AWS)는 26일(현지시간) 미국 워싱턴DC의 월터E. 워싱턴 컨벤션센터에서 공공부문을 대상으로 하는 ‘AWS 워싱턴DC 서밋 2024’를 열고, 책임 있는 AI 사용을 위한 미 정부기관·연구소·기업 관계자들의 메시지를 전달했다.

◆ “책임 있는 AI 사용을 위한 유연한 프레임워크 필요”

이날 ‘생성형AI의 책임 있는 사용을 위한 리더들의 연합(Uniting leaders for responsible use of generative AI)’을 주제로 열린 세션에서 대표 생성형 AI 스타트업이자 AWS의 AI 파트너인 앤스로픽의 마이클 셀리토 글로벌총괄은 ‘어떻게 하면 규제와 혁신 사이 균형을 바로잡을 수 있는가’라는 질문에 대해 “우리는 테스트 평가에 중점을 두고 있다”며 “사람들이 우려하는 위험 스펙트럼에 대해 AI 모델이 안전하고 책임 있게 제공될 수 있을지 여부를 테스트하고 평가해 결정할 수 있다”고 말했다.

셀리토 총괄은 “테스트와 평가는 단순히 체크박스를 채우는 것만 의미하는 게 아니다”라며 “현재 사이버보안을 위한 많은 프레임워크는 체크박스인데, 시스템이 안전한지 여부를 테스트하는 게 아니라 시스템의 대리인을 테스트하는 것이기 때문에 실제 시스템이 안전한지 알려주진 않는다”고 설명했다. 그러면서 “제3자가 수행하는 신뢰할 수 있는 객관적 방법으로 테스트와 평가를 할 수 있다”며 “기술의 경험적 측정을 기반으로 한 유연한 프레임워크가 균형을 맞추는 방법”이라고 생각을 전했다.

또한 셀리토 총괄은 민간과 공공분야간 기술과 정보 격차가 크다는 점도 지적했다. 그는 “불행하게도 AI 기술에 대한 많은 지식이 소수의 민간기업에 집중돼 있다”며 “따라서 산업에서 알고 있는 것과 사회 및 정부가 알고 있는 것 사이의 정보 격차를 좁히는 게 중요하다”고 언급했다. 이를 위해 앤스로픽은 ‘책임 있는 조정(Scaling)’ 정책을 펼치고 있다. 이 정책에 따라 앤스로픽은 AI 기술의 다양한 위험 단계(Level)를 설정해 사례를 분석하고 테스트한 뒤 그 결과를 정부와 연구기관에 공유하고 있다.

이러한 노력은 앤스로픽뿐만 아니라 전세계 주요 테크 기업들이 앞장서 뜻을 같이하고 있다. 지난달 21일부터 22일까지 한국에서 열린 ‘AI 서울 정상회의’에서는 아마존을 비롯해 마이크로소프트(MS)와 구글, 삼성전자 등 16개 글로벌 기업이 AI를 안전하게 개발하기로 약속하는 ‘프론티어 AI 안전 서약’에 합의했다. 이 서약에는 기업들이 위험 수위가 높다고 판단하면 AI 서비스 배포를 스스로 중단하고, 기업 내외부에 ‘레드팀’을 구성해 위협을 평가한다는 내용이 담겼다.

◆ “일관된 AI 프레임워크 위한 국제 공조 고려해야”

책임 있는 AI 사용을 위해서는 기업들뿐만 아니라 AI 안전에 관한 체계적인 연구와 정부 차원의 적절한 관리도 필요하다. 올해 초 세계 첫 ‘AI법’을 제정한 유럽연합(EU)에 이어 미 바이든 행정부가 안정성·보안성·신뢰성을 가진 AI 개발을 촉구하는 약 20가지 이니셔티브를 포함하는 ‘AI 행정명령’을 지난해 10월 발표하는 등, AI를 제도 내로 포섭하려는 시도가 최근 들어 본격화되고 있다. 한국 역시 AI에 대한 정의와 규범을 담은 ‘AI기본법’ 입법을 추진 중이다.

바이든 정부에서 AI 행정명령 초안 작성에 참여한 엘리자베스 켈리 AI안전연구소장은 “AI 행정명령은 AI에 관한 규제와 사용에 대해 어떻게 생각해야 하는지 중요한 기준을 만든다”며 “행정명령이 강조하는 것은 데이터 수집에 관한 윤리적 접근, 계속해 반복적으로 활용될 수 있는 체계적 프레임워크, 혁신을 저해하지 않으면서 방향성을 잘 잡기 위한 제도를 만든다는 목표”라고 언급했다.

미국 국립표준기술연구소(NIST) 산하 AI안전연구소는 AI 파운데이션모델(FM) 안정성을 평가할 수 있는 도구와 방법론 개발을 지원하는 조직으로서 AI 안전 과학을 발전시키고 도입하는 데 앞장서는 대표적 기관 중 하나다. 특히 최근에는 생성형 AI를 중심으로 미 연방정부 차원에서의 리스크와 국가안보에 대한 위협요소를 분석하고, AI 안전에 대한 가드레일을 제공하는 역할을 하고 있다.

이러한 노력은 그러나 단일 정부집단 차원에서 끝낼 수 있는 문제가 아니다. 미국만 해도 주마다 그리고 전세계 각국이 서로 다른 법과 제도를 두고 있기 때문에, 향후에는 일관된 AI 이니셔티브를 위한 국제적 공조를 고려해야 한다는 지적이 나온다.

아미 베라 미 연방 하원의원은 “미국은 주 정부 차원에서 많은 규제 프레임워크를 내놓고 있어 그 수가 50가지는 되는데, 50개의 서로 다른 프레임워크가 혁신을 방해할 수 있다는 점은 매우 위험하다”며 “국제적으로도 유럽 가이드라인, 미국 가이드라인, 아시아 가이드라인과 같이 일관성 없는 규제 프레임워크는 피해야 한다”고 우려했다.

그는 “같은 생각을 가진 동맹국들과 협력해 사람들이 공유할 수 있는 일관된 접근 방식을 논의하는 게 중요하다”며 “AI 태스크포스 같은 이니셔티브가 산업 주도 하에 이뤄지고 있는 것처럼 국제 협력 부분은 매우 중요한 작업”이라고 주장했다.

한편, 이날 세션에서는 미국 국방부의 생성형 AI 도입 사례도 제시됐다. 라다 플럼 미국 국방부 최고디지털·AI책임자(CDAO)는 “우리는 책임 있는 AI 프레임워크와 데이터 상호운용성 및 데이터 접근성을 확보해 AI 도구가 국방부의 어떤 곳에서 사용될 수 있는지 민주적으로 결정하고자 한다”며 “또한 책임 있는 AI 도구와 사이버 위험으로부터의 테스트 및 평가까지 전체 위험 관리 범위를 다루고 있다”고 소개했다.

플럼 CDAO는 “국방부는 기술 도입에 있어 보수적이고 속도가 느린 경향이 있지만, 이 속도를 키우기 위해 AI의 가치를 입증할 수 있는 사용사례를 빠르고 안전하게 발굴하고 활용하는 데 집중할 것”이라며 “우선 작은 분야에서 디지털 혁신을 실행해본 다음 주요 의사결정에 어떤 도움이 될지 차츰 광범위하게 확산해 나가고 있으며, 이를 통해 AI 모델에서 도출된 결과가 직접적으로 전투에 임하는 전투원들에게 도움이 되는 것을 확인하고 있다”고 말했다.

◆ AWS, ‘공공부문 생성형AI 임팩트 이니셔티브’ 발표

이처럼 안전하고 책임 있는 AI 기술 개발을 위한 노력의 연장선으로, AWS는 이번 서밋에서 ‘AWS 공공부문 생성형 AI 임팩트 이니셔티브’를 발표했다.

2년간 5000만달러(약 697억원)가 투입되는 이 투자는 정부, 비영리단체, 교육기관, 의료기관, 항공우주 등 공공부문 기관들이 ‘아마존 베드록’ ‘아마존Q’ ‘아마존 세이지메이커’ ‘AWS 트레이니움’ ‘AWS 인퍼런시아’ 등 자사의 생성형 AI 서비스와 인프라를 활용할 수 있도록 크레딧과 기술지원을 제공하는 것이 골자다.

AWS는 신기술 솔루션 개발 경험과 프로젝트 아이디어의 성숙도 등을 고려해 크레딧 지급 여부를 결정하며, 공공부문 기관들이 생성형 AI와 클라우드 기반 기술의 잠재력을 활용해 사회에 긍정적인 영향을 미칠 수 있도록 지원할 방침이다.

이 밖에도 AWS는 AI안전연구소 컨소시엄의 회원으로 500만달러(약 70억원)를 투자한 바 있으며, AI 연구를 위해 고급 컴퓨팅과 소프트웨어 및 AI 모델을 제공하는 미 국립과학재단의 국가AI연구자원(NAIRR) 프로그램 파트너기도 하다.

- Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지 -
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.