아이작 랩 프로젝트 그루트 모델 (사진=엔비디아) |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
엔비디아가 로봇 및 휴머노이드 개발자를 위한 새로운 인공지능(AI) 기반 도구를 내놓았다. 이를 통해 로봇 학습과 휴머노이드 개발 주기를 단축할 수 있게 됐다는 설명이다.
엔비디아는 5일(현지시간) 독일 뮌헨에서 열린 연례 로봇 학습 콘퍼런스에서 새로운 AI 및 시뮬레이션 도구를 공개했다.
여기에는 로봇 학습 프레임워크인 '아이작 랩(Isaac Lab)'의 일반 공개 AI 로봇 두뇌 개발을 위한 프로젝트 '그루트(GR00T)'를 위한 6가지 학습 워크플로우 비디오 처리를 위한 새로운 개발자 도구 등이 포함됐다.
아이작 랩은 개발자가 가상 세계에서 로봇을 테스트하고 실행할 수 있는 디지털 트윈 시뮬레이션 플랫폼 '옴니버스(Omniverse)'에 구축된 오픈 소스 로봇 학습 프레임워크다.
이를 통해 개발자는 대규모 로봇 정책을 훈련할 수 있다. 휴머노이드 로봇부터 사족 보행 로봇, 협업 로봇에 이르기까지 모든 형태에 적용, 점점 더 복잡해지는 움직임과 상호작용을 처리할 수 있다는 설명이다.
1X과 어질리티 로보틱스, AI 인스티튜트, 버클리 휴머노이드, 보스톤 다이내믹스, 필드 AI, 퓨리에, 갤봇, 멘티 로보틱스, 스킬드 AI, 스위스-마일, 유니트리 로보틱스, 엑스팽 로보틱스 등 주요 로봇 제조사와 애플리케이션 개발자 및 로봇 공학 연구 기관들이 아이작 랩을 채택하고 있다.
프로젝트 그루트는 개발자들이 범용 휴머노이드 로봇을 위한 AI 기반 모델과 소프트웨어 라이브러리, 데이터 파이프라인 등을 제공받아, 프로토타입을 만들고 빠르게 구축할 수 있도록 돕는 이니셔티브다.
엔비디아는 로봇에 새로운 기능을 추가하는 데 도움이 되는 6가지 새로운 그루트 프로젝트 워크플로 청사진을 발표했다. 여기에는 다양한 시뮬레이션 환경을 만들기 위한 그루트-젠(GR00T-Gen) 로봇 동작 및 궤적 생성을 위한 그루트-미믹(GR00T-Mimic) 세밀하고 능숙한 손동작을 위한 그루트-댁스러터티(GR00T-Dexterity) 걷기, 팔 다리 움직임 또는 작업 수행을 위한 전신 동작을 돕는 그루트-컨트롤(GR00T-Control) 이동 및 탐색을 위한 그루트-모빌리티(GR00T-Mobility) 다중 모드 감지를 위한 그루트-퍼셉션(GR00T-Perception) 등이 포함된다.
마지막으로 로봇이 동작을 수행할 때 물체와 환경이 어떻게 반응할지 예측할 수 있는 '세계 모델(World Model)'을 구축할 수 있도록, 비디오 처리를 위한 도구 코스모스(Cosmos) 토크나이저 네모 큐레이터(Nvidia NeMo Curator)를 제공한다.
오픈 소스 코스모스 토크나이저는 이미지를 분석해 고품질 토큰으로 변환하고, 비디오를 고압축률의 토큰으로 분해해 로봇 개발자들에게 시각 토큰화를 제공한다. 기존의 토크나이저보다 최대 12배 더 빠르게 실행된다. 또 네모 큐레이터는 코스모스 토크나이저와 결합해 입력을 최적화하고, 최대 7배 더 빠른 비디오 큐레이션으로 차리 시간을 단축한다.
현재 아이작 랩 1.2는 깃러브에서 오픈 소스로 제공된다. 코스모스 토크나이저도 현재 깃허브와 허깅페이스에서 사용할 수 있다. 비디오 처리를 위한 네모 큐레이터는 이번 달 말에 제공될 예정이다.
엔비디아는 "로봇 회사들이 더 쉽게 휴머노이드 로봇 기능을 구축할 수 있도록 돕는 새로운 프로젝트 그루트 워크플로우도 곧 제공할 예정"이라고 덧붙였다.
박찬 기자 cpark@aitimes.com
<저작권자 Copyright ⓒ AI타임스 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.