컨텐츠 바로가기

    03.20 (금)

    [HBR 인사이트]AI로 성과 못 내는 이유, 기술 아닌 행동과학에 있다

    댓글 첫 댓글을 작성해보세요
    주소복사가 완료되었습니다
    동아일보

    게티이미지뱅크

    <이미지를 클릭하시면 크게 보실 수 있습니다>


    왜 많은 인공지능(AI) 프로젝트가 성과를 내지 못할까? 수년간 AI가 비즈니스를 혁신할 것이라는 이야기를 들어 왔지만 기업은 여전히 AI 투자에서 실질적인 가치를 끌어내는 데 어려움을 겪고 있다. 보스턴컨설팅그룹(BCG)의 글로벌 설문조사에 따르면 AI로 가시적인 투자수익률(ROI)을 거둔 기업은 26%에 불과하다.

    성공의 관건은 사람들이 업무 관행과 일상에서 AI를 어떻게 인식하고 상호작용하느냐에 달려 있다. 새로운 AI 도구를 조직에 통합하는 일은 본질적으로 행동의 문제다. 기본적인 인간의 욕구와 편향을 무시한 채 도입을 추진하면 직원들은 새로운 AI 도구에 저항하거나 신뢰하지 않게 된다. 사람들이 실제로 사고하고 일하는 방식에 맞게 AI를 조정하려면 행동과학과 변화관리 원칙을 적용한 접근이 필요하다. 특히 설계, 도입, 지속적 관리 등 세 단계에 행동과학을 적용할 필요가 있다.

    먼저 설계 단계에서 사용자들의 행동을 고려하면 더 가치 있고 실제로 유용한 제품을 만들 수 있다. 그러나 안타깝게도 대부분의 AI 도구는 이런 방식으로 만들어지지 않는다. 많은 경우 사람들의 실제 사용 방식과 맞지 않는 기술적 벤치마크를 충족하는 데 초점을 맞춰 설계된다.

    예를 들어 AI 전사 도구를 만든다고 가정해 보자. 직관적으로는 가장 매끄러운 인터페이스가 최선이라 여길 수 있다. 그러나 행동과학 연구에 따르면 의도적으로 읽기 어려운 글꼴로 단어를 표시하는 등 약간의 마찰을 주면 사람들이 텍스트를 더 면밀히 검토하고 오류를 더 잘 찾아낸다. 이런 통찰을 설계 과정에 반영하려면 리더는 다양한 최종 사용자를 파일럿과 베타 테스트에 참여시키고 실제 요구에 따라 제품을 개선하도록 장려해야 한다. 이는 도구를 더 직관적으로 만들 뿐 아니라 사용자에게 주인의식을 부여해 실제 활용도를 높일 수 있다.

    개발자들 역시 작업 방식을 고민해야 한다. 설계자들은 ‘발명가의 편향’, 즉 자신이 만든 시스템을 지나치게 낙관적으로 바라보는 경향이 있다. 사용자 중심의 베타 테스트를 강화하는 것은 이를 완화하는 데 도움이 된다. 2020년 한 연구에 따르면 아마존·애플·구글·IBM·마이크로소프트 등 주요 기업의 자동 음성 인식 시스템에서 백인 화자보다 흑인 화자의 음성에 약 두 배 더 많은 오류가 발생했다. 이런 차이는 베타 테스트 단계에서 언어적으로 더 다양한 사용자를 포함하고, 방언과 억양별 오류율 같은 결과를 출시 전에 제품 개발팀에 공유했다면 충분히 예방할 수 있었을 것이다.

    도입 단계에서는 신뢰, 노력, 통제감의 문제를 다뤄야 한다. 아무리 잘 설계된 도구라도 도입을 행동적으로 관리하지 않으면 저항에 부딪힌다. 직원들이 AI 실패 사례에 집착하거나 자율성을 잃을까 두려워하는 경우가 있다. 이를 완화하기 위해 AI를 대체자가 아닌 보조자로 프레이밍할 필요가 있다. 반복적이고 보완적인 업무를 AI가 맡으면 직원이 고부가가치 업무에 집중하도록 도울 수 있다는 점을 강조하는 것이다. 또한 AI의 실수를 인간적으로 설명하는 것도 도움이 된다. AI도 우리와 마찬가지로 실수한다는 점을 보여주고 함께 학습하는 파트너로 여기는 것이다.

    설명 가능한 AI를 활용해 불안을 줄이고 투명성을 강화하는 것도 도움이 된다. AI가 어떤 과정을 거쳐 특정 결정이나 예측에 도달했는지 사용자에게 피드백을 제공하는 것이다. 이는 의사결정이 어떻게, 어떤 방식으로 이뤄지는지, 조직이 왜 그 결정을 지지하는지 명확히 이해하도록 도와준다. 의료 분야의 연구에 따르면 의료 제공자가 AI 도구의 한계와 잠재적 편향, 이를 보완하기 위한 안전장치를 선제적으로 공개했을 때 환자의 신뢰와 서비스 이용 의지가 오히려 높아졌다.

    마지막으로 관리 단계에서는 과신과 몰입의 확증 편향을 경계해야 한다. 리더 역시 편향에서 자유롭지 않다. 많은 리더는 AI 도입이 지닌 행동적 복잡성을 간과한 채 직원들이 알아서 적응할 것이라고 가정하고 파일럿 테스트를 생략해도 된다고 판단한다. 실패가 명확한 프로젝트에 집착하는 확증 편향에 빠져 직원들이 외면하는 도구에 막대한 자원을 계속 투입하기도 한다. 이런 편향은 매우 큰 비용으로 돌아올 수 있기에 리더는 늘 경계해야 한다.

    AI 도입을 기술 문제가 아닌 행동 문제로 다룰 때 조직은 높은 실패율을 극복할 수 있다. 인간의 편향을 고려해 설계하고 신뢰와 투명성을 기반으로 도입하며 겸손과 공감으로 관리하라. 그러면 AI는 인간에 맞서 싸우지 않고 인간과 함께 작동할 것이다.

    ※ 이 글은 HBR(하버드비즈니스리뷰) 디지털 아티클 ‘AI로 성과 못 거뒀다면 행동과학에 주목하라’를 요약한 것입니다.

    데이비드 드 크레머 노스이스턴대 교수
    정리=최호진 기자 hojin@donga.com

    Copyright Ⓒ 동아일보. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지
    기사가 속한 카테고리는 언론사가 분류합니다.
    언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.