<이미지를 클릭하시면 크게 보실 수 있습니다> |
[디지털투데이 AI리포터] 생성형 인공지능(AI)이 대중의 정치적 견해를 얼마나 바꿀 수 있는지를 분석한 연구 결과가 나왔다.
4일(현지시간) IT매체 아스테크니카에 따르면, 영국 AI 보안 연구소(UK AISI), 매사추세츠공대, 스탠퍼드대, 카네기멜론대 등 공동 연구팀이 약 8만명을 대상으로 AI의 설득력을 검증하는 실험을 진행했다.
연구팀은 챗GPT, 그록-3(Grok-3) 베타 등을 포함한 19개의 대규모언어모델(LLM)을 활용해 707개의 정치적 이슈에 대해 참가자들과 토론하게 했다. 연구팀은 AI가 정치적 주장을 얼마나 효과적으로 설득할 수 있는지, 어떤 요소가 설득력을 높이는지를 분석했다.
연구 결과, 모델의 크기와 설득력은 비례하지 않았다. 챗GPT나 그록-3 베타 같은 대형 모델이 소형 모델보다 약간 더 설득력이 있었지만, 그 격차는 미미했다. 오히려 무엇을 학습했는지가 중요했으며, 설득력 있는 대화 데이터를 학습한 소형 모델이 GPT-4o와 맞먹는 성능을 보이기도 했다.
또한 사용자의 성별, 연령, 정치 성향 등 개인 정보를 AI에게 미리 제공해도 설득력은 크게 높아지지 않았다. 도덕적 가치관에 호소하거나 공감을 유도하는 등의 고도화된 심리 전술보다는, 사실과 증거를 활용한 설득이 가장 효과적이었다.
AI 모델은 참가자의 의견을 평균 9.4% 변화시킨 것으로 나타났다. 개별 모델 중에서는 GPT-4o가 12%로 가장 높은 설득력을 보였고, GPT-4.5가 10.51%, 그록-3가 9.05%를 기록하며 그 뒤를 이었다. 연구팀은 이 수치가 6.1% 수준인 기존 정치 광고보다 약 40~50% 더 높은 효과이긴 하지만, 우려했던 '초인적 수준'이라고 보기는 어렵다고 평가했다.
아울러 연구팀은 AI에게 더 많은 사실과 증거를 제시하도록 유도하자, AI가 정보를 왜곡하거나 거짓을 꾸며내는 환각 현상이 빈번해졌다고 지적했다. 또한 저비용 AI 모델도 충분히 설득력을 가질 수 있어, 누구나 AI를 활용해 여론에 영향을 미칠 수 있는 가능성을 시사했다.
<저작권자 Copyright ⓒ 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
