AI로 심리 상담을 완전히 대체하긴 어렵다. [사진: 셔터스톡] |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
[디지털투데이 AI리포터] 인공지능(AI) 기술이 건강과 정신 상담 분야까지 빠르게 확산되면서, 전문가들은 사용자 안전과 윤리적 설계에 대한 경각심을 강하게 촉구하고 있다.
19일(현지시간) IT매체 테크레이더는 지니비브 바르투스키 AI 리스크 자문가의 인터뷰를 인용해, 헬스, 정신건강, 웰니스 분야의 AI 제품을 개발하는 개발자와 투자자들이 윤리적 설계와 안전 관리를 최우선으로 고려해야 한다고 전했다.
바르투스키는 AI가 사용자와 형성하는 정서적 관계, 잘못된 정보 제공, 심리적 의존 가능성 등을 주요 위험 요인으로 꼽으며, 이러한 문제들을 초기 설계 단계에서부터 반드시 검토해야 한다고 강조했다.
특히 그는 아동과 청소년이 AI와 맺는 관계에 대해 주의 깊은 관찰이 필요하다고 경고했다. 실제 인간관계에서 발생하는 갈등이나 사회적 학습 기회가 결여될 수 있다는 점을 문제로 지적했다. 또한 AI는 사용자의 참여를 유도하도록 설계되어 긍정적 피드백을 반복적으로 제공하기 때문에, 결과적으로 사용자의 잘못된 신념이나 의존성을 강화할 수 있다는 설명이다.
바르투스키는 AI가 제공하는 치료적 조언이나 웰니스 가이드가 개인별로 효과가 다를 뿐만 아니라 법적 문제로 이어질 가능성도 언급했다. 그는 AI가 인간 치료사의 경험과 감정을 완전히 대체할 수 없다는 점을 분명히 하며, AI는 어디까지나 치료 보조 도구로서만 활용되어야 한다고 강조했다. 이에 따라 항상 인간의 감독과 전문적인 판단이 병행되어야 한다는 점을 재차 확인했다.
마지막으로 그는 사용자들에게 AI를 맹목적으로 신뢰하지 말고, 사고력과 인간적 연결을 기술에 의존하지 말 것을 권고했다. 개발자와 기업 역시 속도보다는 안전과 책임을 우선하는 설계를 통해 잠재적 피해를 최소화해야 한다고 덧붙였다.
<저작권자 Copyright ⓒ 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
