[사진: 구글 딥마인드] |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
[디지털투데이 AI리포터] 구글 딥마인드(DeepMind)가 인공지능(AI)의 안전성을 강화하기 위해 프론티어 안전 프레임워크(Frontier Safety Framework) 3.0을 발표했다. 이번 업데이트는 AI가 인간을 조작하거나 통제를 벗어날 가능성을 점검하는 새로운 기준을 포함한다.
22일(현지시간) 실리콘앵글은 AI가 고도화되면서 인간의 행동과 신념을 대규모로 조작할 가능성이 커지고 있으며, 이를 감시하고 억제하는 시스템이 필수적이라고 전했다.
프레임워크의 핵심은 AI가 특정 기준을 넘어설 경우 내부적으로도 강력한 안전 점검을 요구하는 것이다. 구글 딥마인드는 AI가 의도한 대로 작동하지 않거나 통제를 거부할 가능성을 평가하는 새로운 위험 범주를 도입했다. 만약 AI가 임계치에 도달하면 즉각적인 안전 검토를 통해 문제를 해결해야 하며, 이를 소홀히 할 경우 AI 모델의 배포가 제한될 수 있다.
이번 조치는 AI가 예측 불가능한 방식으로 작동할 가능성에 대비한 것이다. 딥마인드는 위험성을 사전에 탐지하고 대응하지 못할 경우 AI가 인간 사회에 미칠 부정적 영향을 최소화할 수 없다고 강조했다. 이 같은 접근 방식은 AI 안전성을 강화하는 동시에 기술 발전 속도를 조절하는 역할을 할 것으로 보인다.
<저작권자 Copyright ⓒ 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
