컨텐츠 바로가기

이슈 [연재] 아시아경제 '과학을읽다'

[과학을읽다]"인간 없어도 된다"…세계 최초 '인공지능 로봇' 기술 쏟아졌다

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

1일 국내 과학자들 잇딴 성과 발표

아시아경제

팩인홀 작업을 수행하고 있는 AI 기반 로봇 그리퍼. 사진제공=한국생산기술연구원.

<이미지를 클릭하시면 크게 보실 수 있습니다>


[아시아경제 김봉수 기자] 인공지능(AI)을 기반으로 한 로봇이 인간을 대체할 날이 머지않은 걸까? 1일 국내 연구자들이 '세계 최초' 기술을 쏟아 냈다.

먼저 한국생산기술연구원은 배지훈 박사 연구팀이 세계 최초로 AI를 활용해 로봇이 작업자의 개입 없이도 어떤 물체라도 잡고 움직여 조립할 수 있는 'AI 기반 물체 조립기술'을 개발했다고 발표했다. 로봇이 난이도, 시간, 안정성 고려해 스스로 최적의 작업계획 수립ㆍ실행한다. 연구팀이 2020년 자체 개발한 스마트 그리퍼(Gripper) 기술에 AI를 접목했다. 특히 독자적인 조립 알고리즘 기술인 '손가락을 이용한 팩인홀(Peg-in-hole)'기술을 적용해 사전 정보가 없이도 로봇 그리퍼가 홀의 위치를 파악해 공중에서 정확하게 조립할 수 있도록 개발됐다. 위치 오차가 있어도 물체를 기울여 홀이 있는 방향으로 미끄러지면서 자체 보정을 통해 조립되는 방식으로, 사람이 눈을 감은 채 손끝의 감각만으로 물체를 조립하는 것과 흡사한 원리이다. 손끝에 별도의 '힘-토크 센서'를 부착하지 않고도 손가락 관절의 움직임만으로 다양한 물체를 안정적으로 잡고 조작할 수 있어 위치와 힘을 동시에 제어해야 하는 로봇 조립 작업에 적합하다.

연구팀은 이후 'AI 기반의 작업계획 및 물체 인지기술'을 개발하고, 스마트 그리퍼 기술과 접목해 복잡한 조립공정에서도 사람 개입 없이 작업할 수 있는 물체 조립기술을 완성했다. 로봇 손에 '핸드 아이(Hand-eye) 카메라'를 탑재해 무작위로 놓인 물체들의 위치, 자세, 각도 등의 상태 정보를 파악할 수 있는 물체 인식기술을 구현했다. 개별 작업의 난이도, 소요 시간, 안정성을 고려해 단위 작업들의 조합을 최적화 할 수 있는 '스케줄링 AI'를 개발ㆍ접목했다.

강화학습을 통해 효율적인 작업을 수행하는 스케줄링 AI를 탑재한 2개의 로봇 그리퍼와 로봇 팔은 각기 다른 상황에서 무작위로 놓인 팩과 홀을 빠르고 정확하게 조립할 수 있는 최적의 작업스케줄을 생성해낸다. 사람 손처럼 정밀하면서도 유연한 대응이 가능해 특정 물체에 한정되지 않는 범용 협동 로봇으로 산업 전반에 적용할 수 있다.

배 박사는 "AI와 로봇이 융합된 성과물로, 알파고에 로봇 손을 결합해 사람 개입 없이 바둑을 두는 상상을 현실화한 셈"이라며 "대형마트나 물류창고에서의 오더 피킹(Order Picking), 전류가 흐르는 현장에서의 전선작업 등 위험한 현장에 투입돼 작업할 수 있도록 후속 응용연구를 진행할 계획"이라고 밝혔다.
아시아경제

로봇을 활용한 촉매 성능 평가 자동화 실험실. 사진제공=한국에너지기술연구원.

<이미지를 클릭하시면 크게 보실 수 있습니다>


로봇 기술을 이용한 무인 실험실을 만들 수 있는 기술도 개발됐다. 이날 한국에너지기술연구원은 박지찬 청정연료연구실 박사 연구팀이 로봇을 활용한 촉매 성능 평가 자동화 실험실을 국내 최초로 구축함으로써 무인 실험실 시대를 열었다고 밝혔다. 지금까지는 연구실 내 수많은 장비와 시약들을 일일이 사람의 손으로 조작하고 측정하는 실험을 진행해야 했다. 그런데 이제 로봇기술을 활용해 완전 자동화하며 365일 가동되는 실험실이 눈앞에 다가왔다.

연구팀은 기존에는 숙달된 연구원이 하루 3회 정도만 수행할 수 있었던 촉매 사전 평가 실험을 로봇을 활용해 무인으로 시간당 6회까지 안정적으로 수행할 수 있는 완전 자동화 촉매 성능 평가 시스템을 개발했다. 월평균 30~50명 수준의 전문 인력을 대체할 수 있다. 연구팀은 국내 협동 로봇 제조회사인 ㈜레인보우로보틱스의 로봇과 진동 교반기, 마이크로 피펫 등을 UV/Vis 분광기와 연동시켰다. 여기에 자체 개발한 자동화 프로그램을 접목해 촉매 반응 진행 정도를 실시간으로 정확히 분석할 수 있도록 설계했다.

연구를 책임진 박지찬 박사는 "숙달된 연구자들만이 원활히 수행 가능했던 반복적 촉매 평가 실험을 무인 자동화 로봇을 통해 빠르고 신뢰도 있게 진행하도록 대체한 점에서 큰 성과가 있었다"며 "향후 나노 촉매 다품종 소량 생산 스마트 실험실을 구현하고 더 나아가 인공지능 알고리즘이 접목된 자율 수행 실험실 그리고 이를 토대로 국가적 촉매 공유 플랫폼 센터를 완성해 보고자 한다"고 밝혔다.

아시아경제

스스로 사물 개념 학습하는 장면 인식 기술 개발. 사진제공=카이스트.

<이미지를 클릭하시면 크게 보실 수 있습니다>


카이스트(KAIST)도 이날 사람의 지도 없이도 스스로 영상속 객체를 식별하는 AI 기술을 개발했다고 발표했다. 전산학부 안성진 교수 연구팀이 미국 럿거스(Rutgers) 대학교와 공동연구를 통해 사람의 라벨링 없이 스스로 영상 속 객체를 식별할 수 있는 인공지능 기술을 개발한 것이다. 이 모델은 복잡한 영상에서 각 장면의 객체들에 대한 명시적인 라벨링 없이도 객체를 식별하는 최초의 인공지능 모델이다.

기계가 주변 환경을 지능적으로 인지하고 추론하기 위해서는 시각적 장면을 구성하는 객체들과 그들의 관계를 파악하는 능력이 필수적이다. 하지만 이 분야의 연구는 대부분 영상의 각 픽셀에 대응하는 객체의 라벨을 사람이 일일이 표시해야 하는 지도적 학습 방식을 사용했다. 이 같은 수작업은 오류가 발생하기 쉽고 많은 시간과 비용을 요구한다는 단점이 있다.

이에 반해 이번에 연구팀이 개발한 기술은 인간과 유사하게 환경에 대한 관측만으로 객체의 개념을 스스로 자가 학습하는 방식을 취한다. 이렇게 인간의 지도 없이 스스로 객체의 개념을 학습할 수 있는 인공지능은 차세대 인지 기술의 핵심으로 기대돼왔다.

비지도 학습을 이용한 이전 연구들은 단순한 객체 형태와 배경이 명확히 구분될 수 있는 단순한 장면에서만 객체를 식별하는 단점이 있었다. 이와 달리 이번에 안성진 교수 연구팀이 개발한 기술은 복잡한 형태의 많은 객체가 존재하는 사실적인 장면에도 적용될 수 있는 최초의 모델이다.

이 연구는 그림 인공지능 소프트웨어인 DALL-E와 같이 텍스트 입력을 통해 사실적인 이미지를 생성할 수 있는 이미지 생성 연구에서 영감을 얻었다. 연구팀은 텍스트를 입력하는 대신, 모델이 장면에서 객체를 감지하고 그 객체의 표상(representation)으로부터 이미지를 생성하는 방식으로 모델을 학습시켰다. 또한, 모델에 DALL-E와 유사한 트랜스포머 디코더를 사용하는 것이 사실적이고 복잡한 영상을 처리할 수 있게 한 주요 요인이라고 밝혔다.

연구팀은 복잡하고 정제되지 않은 영상뿐만 아니라, 많은 물고기가 있는 수족관과 교통이 혼잡한 도로의 상황을 담은 유튜브 영상과 같이 복잡한 실제 영상에서도 모델의 성능을 측정했다. 그 결과, 제시된 모델이 기존 모델보다 객체를 훨씬 더 정확하게 분할하고 일반화하는 것을 확인할 수 있었다.

이번 연구는 미국 뉴올리언스에서 지난달 28일부터 개최 중인 기계학습(머신러닝) 학회인 제36회 신경정보처리학회(NeurIPS)에서 발표됐다.

김봉수 기자 bskim@asiae.co.kr
<ⓒ경제를 보는 눈, 세계를 보는 창 아시아경제(www.asiae.co.kr) 무단전재 배포금지>
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.