컨텐츠 바로가기

12.05 (목)

[re:Invent2024] 나를 속이는 AI의 착각, AWS는 이렇게 해결한다

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
디지털데일리

<이미지를 클릭하시면 크게 보실 수 있습니다>




[디지털데일리 권하영기자] 생성형 인공지능(AI)은 전 산업 분야에서 유례 없는 혁신을 일으키고 있지만, 이러한 생성형 AI의 확산을 가로막는 당면과제들이 아직은 많아 보인다. 대표적으로, AI가 사용자의 질문에 대해 정확히 알지 못하면서도 억지로 그럴 듯한 거짓 답변을 만들어 제시하는 일종의 환각(Hallucination) 현상이 그렇다.

생성형 AI가 대두된지 수 년이 지났지만, 이러한 AI의 환각은 아직 완벽하게 정복되지 못했다. 다만 주요 AI 기업들은 검색증강생성(RAG) 기술을 이용해 환각 현상을 최소화하거나, 애초에 내부 데이터 소스만 활용해 프라이빗한 거대언어모델(LLM) 형태로 AI 서비스를 활용하는 등 다양한 우회로를 모색해 왔을 뿐이다.

이에 대해 아마존웹서비스(AWS)는 생성형 AI의 환각 문제를 전면 차단하는 새로운 방법론을 제시했다. 자사의 완전관리형 생성형 AI 도구 ‘아마존 베드록’에서 ‘자동화 추론 검증(Automated Reasoning Checks)’ 기능을 선보인 것이다.

◆ AI 환각현상 차단하는 ‘자동추론검증’

AWS의 맷 가먼 최고경영자(CEO)는 3일(이하 현지시간) 미국 네바다주 라스베이거스의 베네시안 호텔에서 열린 ‘AWS 리인벤트 2024(AWS re:Invent 2024)’ 기조연설에서 아마존 베드록의 주요 업데이트 소식을 발표했다.

바로 그 중 하나인 ‘자동화 추론 검증’은 자동화된 추론(Reasoning)을 통해 AI의 답변을 배포 전에 수학적으로 검증함으로써 반드시 ‘정답’만을 답변하게 하는 기술이다. 만약 정확한 답변이 준비되지 못했다면, AI가 사용자에게 다른 프롬프트를 요청하는 등의 행동으로 정답을 찾아내기 위해 노력해야 한다. 특히나 정확성이 중요한 정부기관 등 공공 분야와 금융·의료 등 규제 관련 산업에서 수요가 클 것으로 보이는 대목이다.

가먼 CEO는 “아침에 일어나서 욕실에 갔더니 물이 가득 샜다고 가정해보자”며 “우리는 생성형 AI에 보험 처리가 가능한지 물어볼 수 있겠지만, 이 때 AI의 오답은 허용되지 않는 상황”이라고 예를 들었다. 그러면서 “이 경우 어떻게 하면 정확성을 가질 수 있을까 고민한 결과, 아마존 베드록이 룰을 만들고 반복 프로세스를 통해 AI가 보험 약관을 이해하고 환각 오류를 내지 않도록 할 수 있게 됐다”고 설명했다.

이러한 자동화 추론 검증은 업계 최초의 유일한 생성형 AI 안전장치이자, 최고 수준의 정확성을 요구하는 새로운 생성형 AI 활용사례를 가능케 하는 기술이라고 AWS는 자부하고 있다. 다만 이 기술은 ‘오답을 절대 내지 못하게’ 하는 데 초점을 둔 만큼, 실제 품질 측면에서 AI의 ‘답변 정확도를 높인’ 것은 아닌 것으로 보여진다.

AWS는 이번 자동화 추론 체크를 선보이기에 앞서, 올해 8월 아마존 베드록의 ‘아마존 가드레일’ 기능에 생성형 AI 환각을 감지하고 차단하는 ‘문맥 근거 검증(Contextual Grounding Checks)’ 기술도 추가한 바 있다.

문맥 근거 검증은 외부의 신뢰할 수 있는 지식기반(Knowledge base)을 참조해 LLM에서 최적의 답변을 출력하도록 하는 RAG 기술이 적용돼 있다. RAG를 통해 AI 답변의 정확성을 점수화해 평가하고, 사용자는 이에 따라 AI의 답변을 신뢰할지 말지 선택할 수 있다. AWS에 따르면 이 기술의 할루시네이션 탐지율은 최대 75%다.

자동화 추론 체크가 오답을 아예 막아버리는 차단기라면, 문맥 근거 체크는 평가체계와 사용자의 개입으로 정확도를 높이는 보조장치로 풀이된다.

◆ 이제는 ‘AI 에이전트끼리’ 협업한다

가먼 CEO는 이와 함께, 아마존 베드록의 AI 에이전트들이 서로 정보를 공유하고 교류할 수 있는 아마존 베드록의 ‘멀티-에이전트 콜라보레이션(Multi-Agent Collaboration)’도 이날 공개했다.

그는 “아마존 베드록 덕분에 간단한 업무에 있어서는 AI 에이전트를 만들고 실행하기는 쉬워졌지만, 고객은 이제 복잡한 업무를 수백개 AI 에이전트를 통해 동시에 실행시키고 싶어 한다”며 “신규 지역에 매장을 내고 싶은 글로벌 커피 체인점을 예로 들자면, ‘경쟁 상황 분석’ ‘재무적 전망’ ‘지역별 비교분석’ 등을 맡은 각각의 AI 에이전트들이 서로 공유하고 교류하게 해야 하는데, 그러려면 고객 입장에선 시스템 관리가 완전히 불가능해지는 것”이라고 설명했다.

멀티-에이전트 콜라보레이션은 이러한 페인포인트에서 출발한 것이다. 가먼 CEO는 이 새 기능에 대해 “별도의 AI 에이전트들이 각자 특화된 업무를 전담하고 나면 이러한 워크플로의 두뇌 역할을 하는 수퍼-에이전트(Super-Agent)가 생기게 되고, 수퍼-에이전트는 여러 AI 에이전트들이 복잡한 워크플로의 업무를 같이 협업할 수 있게 조율하게 된다”고 소개했다. 실제 이 기능의 개념검증(PoC)을 실시한 국제신용평가사 무디스의 고객사례를 보면, 이전에는 직원 한명이 일주일에 걸쳐 해야 했던 작업을 1시간 만에 할 수 있었다는 전언이다.

◆ 큰 모델 지식을 작은 모델로 ‘증류’

또한 아마존 베드록은 ‘모델 증류(Model Distillation)’ 기술을 통해 대규모 고성능 모델의 특정 지식을 더 작고 효율적인 모델로 이전할 수 있도록 새롭게 지원한다. 이는 큰 모델이 마치 선생님처럼 작은 모델을 학습시키는 것과 마찬가지다.

예를 들어 고객이 샘플 프롬프트를 제공하면, 아마존 베드록은 응답 생성부터 더 작은 모델의 파인튜닝까지 모든 작업을 처리하고 필요하다면 추가 샘플 데이터까지 만들어 증류시킨다. 이를 통해 큰 모델의 지식과 정확도는 유지하면서, 작은 모델의 속도와 비용효율성을 얻을 수 있는 것이다. AWS에 따르면 최대 500% 빠르고 75% 저렴한 수준이다.

AWS는 이러한 아마존 베드록의 주요 업데이트 내용을 다음날인 4일로 예정된 스와미 시바수브라마니안 AI및데이터부문 부사장의 기조연설에서 더욱 자세히 공개할 것으로 예상된다. 가먼 CEO는 “생성형 AI는 여전히 초기 단계라고 할 수 있지만 벌써 많은 혁신이 이뤄지고 있다”며 “아마존 베드록에 대한 발표가 워낙 많은데, 내일이면 스와미(시바수브라마니안 부사장)가 더 많은 사례를 알려줄 것”이라고 예고했다.

이번 AWS 리인벤트 2024는 지난 2일부터 오는 6일까지 닷새 동안 베네시안 엑스포와 호텔을 중심으로 시저스포럼, 엔코어, 만달레이베이, MGM그랜드, 윈 호텔 등 라스베이거스 내 주요 거점에서 진행된다.

- Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지 -
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.