컨텐츠 바로가기
67677218 0352021042367677218 08 0801001 itscience 6.3.1-RELEASE 35 한겨레 0 false true false false 1619139802000

로봇에게 ‘마음 속 생각’을 말하게 했더니…

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
인간 인지 모델과 음성변환장치 결합

AI의 의사결정과정을 음성으로 표현

로봇-사람간 투명성·협력 강화 효과


한겨레

이탈리아 연구진이 인공지능의 의사결정 과정을 음성으로 들려주는 방법을 개발했다. 아이사이언스

<이미지를 클릭하시면 크게 보실 수 있습니다>


요즘 나오는 스마트폰을 이용하다 보면 인공지능이 생활 속으로 깊숙히 파고들고 있음을 실감한다. 하지만 인간은 인공지능이 제시하는 결과만 접할 뿐 인공지능이 어떻게 결과를 도출해내는지에 대해선 깜깜하다. 인공지능 기술이 발전하면서 워낙 많은 변수들이 다층적으로 얽히면서, 그 속을 알 수 없는 블랙박스가 됐다. 인공지능이 의사결정을 하는 과정을 알 수 있다면 인공지능이 잘못된 결과물을 내놓지 못하도록 예방할 수 있을 것이다. 인간과 호흡을 맞춰 일해야 하는 로봇의 경우엔 더욱 그럴 것이다.

이탈리아 팔레르모대 연구진이 로봇이 자신의 의사결정 과정을 말로 표현하는 방법을 고안해 21일 국제 공개학술지 `아이사이언스'(iScience)에 발표했다.

이번 연구는 `로봇이 생각하는 것을 사람이 들을 수 있다면 로봇을 더 신뢰할 수 있을 것'이라는 발상에서 시작됐다. 연구진은 인간의 인지 과정을 본뜬 소프트웨어와 문서-음성 변환 프로세서를 결합해 일본 소프트뱅크의 휴머노이드로봇 페퍼에 심었다.

인지 모델 소프트웨어는 페퍼가 저장 정보 속에서 관련 정보를 끄집어내 사람의 명령에 기반한 올바른 조처를 찾아낼 수 있도록 해주고, 음성 변환 장치는 임무 수행을 위한 의사결정 과정을 음성으로 표현해준다. 이 과정에서 로봇은 `내면의 언어'(inner speech)를 밖으로 표출한다. 내면의 언어란 어떤 과제에 맞닥뜨렸을 때, 문제 해결 방법을 놓고 스스로 주고받는 ‘자기와의 대화’를 말한다. 연구진의 일원인 안토니오 첼라 교수(로봇공학)는 "이를 통해 우리는 로봇이 하려는 것을 더 잘 이해할 수 있다"고 말했다.

한겨레

`내면의 언어'를 말하는 로봇은 규칙을 위반하라는 인간의 요청을 받고 딜레마에 빠졌지만 결국 인간의 요청에 따라 행동했다. 아이사이언스

<이미지를 클릭하시면 크게 보실 수 있습니다>


_______

간병로봇 등 인간-로봇 협력 필요한 분야에 유용


연구진은 미리 입력한 식사 에티켓에 따라 저녁식사 테이블을 차리도록 페퍼에게 요청했다. 그런 다음 `내면의 언어' 시스템을 활성화할 때와 비활성화할 때의 로봇 일처리 방식을 비교했다. `내면의 언어'가 페퍼의 실행 능력에 얼마나 영향을 미치는지 알아보기 위해서였다.

연구진은 우선 ‘내면의 언어’를 활성화해 놓고, 냅킨을 포크 위에 놓도록 로봇에 지시했다. 예법에 어긋나는 지시를 받자 페퍼는 스스로 에티켓이 뭘 요구하는지 묻고, 이 지시가 자신에게 입력된 규칙에 어긋난다는 결론을 내렸다. 그런 다음 연구진에게 냅킨을 포크 위에 놓는 것이 올바른 것인지 물었다. 연구진이 그렇다고 하자 페퍼는 소리를 내어 자기와의 대화를 시작했다. "이런 상황이 혼란스럽다. 난 규칙을 깨고 싶지 않다. 하지만 그를 당혹스럽게 할 순 없다. 그래서 그가 원하는 걸 하려고 한다." 그리곤 지시받은 대로 포크 위에 냅킨을 놓았다. 페퍼는 사람의 요청에 우선 순위를 두고 의사결정을 내렸고, 사람은 페퍼의 음성을 들으면서 페퍼가 직면한 딜레마를 이해할 수 있었다.

연구진은 이어 ‘내면의 언어’를 활성화하지 않은 상태에서 같은 일을 시켰다. 그러자 페퍼가 이것이 에티켓에 어긋난다는 걸 알고, 지시를 실행하지 않았다. 물론 그 이유를 설명하지도 않았다.

한겨레

<이미지를 클릭하시면 크게 보실 수 있습니다>


_______

성공률 높은 대신, 내면-인간 대화에 시간 필요


연구진은 여러 가지 실험을 한 결과, 로봇이 `내면의 언어'라는 자기 대화 방식을 사용했을 때 일을 성공적으로 끝내는 비율이 높았다고 밝혔다. ‘내면의 언어’를 사용할 때는 성공률이 87%, 사용하지 않을 때는 성공률이 60%였다. 또 ‘내면의 언어’를 사용하는 경우에는 사람과의 상호작용이 개입되기 때문에 시간이 더 오래 걸렸다. 연구진은 다만 이번에 고안한 `내면의 소리'는 현재로선 페퍼의 결정 과정을 설명하는 기본적인 단계일 뿐이라고 말했다.

로봇이 어떤 판단을 내리는 과정을 로봇의 목소리로 듣게 되면 인간과 로봇 사이의 투명성이 높아지는 효과가 있다. 로봇이 어떤 결정을 내리게 된 이유를 알 수 있기 때문이다. 따라서 인간과 로봇 사이의 교착 상태를 피할 수 있다. 이는 간병로봇처럼 인간과 로봇이 협력해야 하는 분야에서 큰 의미가 있다.

시카고대 사라 세보 교수는 이런 유형의 프로그램이 두 가지 이점을 가져올 수 있다고 지적했다. 하나는 대중이 로봇의 의사결정 과정을 지켜봄으로써 자신의 능력과 한계를 더 잘 파악할 수 있다는 점이다. 다른 하나는 로봇에 대한 사람들의 신뢰를 유지해주고 인간과 로봇 간의 원활한 협업 및 상호작용을 가능하게 해준다는 점이다.

물론 모든 경우에 이런 유형의 인공지능 로봇이 필요한 건 아니다. 불을 끄거나, 아침 6시에 기상음악을 트는 것처럼 의사결정이 필요 없는 일을 할 때는 `내면의 언어'로 인간과 상호작용하는 과정이 굳이 필요 없다.

곽노필 선임기자 nopil@hani.co.kr

▶더불어 행복한 세상을 만드는 언론, 한겨레 구독하세요!
▶esc 기사 보기▶4.7 재·보궐선거 이후 기사 보기

[ⓒ한겨레신문 : 무단전재 및 재배포 금지]


기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.