컨텐츠 바로가기

04.26 (금)

구글, 시각 장애인용 AI '룩아웃' 서비스 전 세계 확대

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

IT NEWS

<이미지를 클릭하시면 크게 보실 수 있습니다>


구글이 시각 장애인용 인공지능 앱 ‘룩아웃(Lookout)’ 서비스를 전 세계로 확대한다고 11일(현지시각) 밝혔다.

룩아웃은 스마트폰 카메라로 사용자 주변 환경에서 쇼핑 상품 정보, 인쇄물, 도로, 표지판, 화장실, 근처에 있는 사람 등을 인식해 음성으로 알려준다.

구글 룩아웃은 2018년 I/O 개발자 컨퍼런스에서 공개하고, 2019년 3월 미국에서만 출시했다.

IT NEWS

<이미지를 클릭하시면 크게 보실 수 있습니다>


룩아웃은 구글 렌즈(Google Lens)와 비슷한 기능이다. 얼굴 감지, 객체감지 및 모발분할(hair segmentation)과 같은 기계학습(Machine Learning) 기반 솔루션을 위한 모듈식 프레임워크인 구글 미디어파이프(MediaPipe MediaPipe) 및 광학문자 인식 모델을 활용한다.

하지만 구글 렌즈와 달리 주변 모든 사물을 인식해 읽어주는 것이 아니다. 특정 모드를 선택하면 그와 관련된 정보만 제공한다. 예를 들어 집을 선택했다면 식기 세척기, 식탁, 소파 등을 알려주고 이동 상태라면 엘리베이터와 계단을 알려준다. 특히 이러한 기능들은 스스로 학습해 시간이 지날수록 성능을 높아진다.

IT NEWS

<이미지를 클릭하시면 크게 보실 수 있습니다>


룩아웃은 시각 장애인에게 있어 큰 도움이 된다. 이번 버전에서는 식품 정보를 기계학습을 통해 브랜드 이름과 크기를 음성으로 읽어주는 기능이 추가됐다. 식품정보 모드는 알레르기원 정보나 영양 정보, 고객 평가, 제품 비교 등 다양한 쇼핑 정보를 제공한다.

특히 클라우드가 아닌 스마트폰과 IoT 디바이스를 하나로 묶어 기계학습을 실행하는 온디바이스(On-Device) 시스템이다. 즉 인터넷에 연결되지 않아도 구현할 수 있다.

구글은 픽셀 4(Pixel 4)에 온디바이스 기계학습 칩 ‘모바일 넷 엣지 텐서플로 유니트(MobileNetEdgeTPU)’을 탑재했다. 또 온디바이스 기계학습 라이브러리 ‘머신러닝 키트(ML Kit)’를 발표하는 등 온디바이스 인공지능(AI)를 위해 하드웨어와 소프트웨어 두 분야 모두 적극 개발하고 있다.

현재 룩아웃은 2GB 이상의 RAM을 탑재한 안드로이드(Android) 버전 6.0 이상의 스마트폰에서 사용할 수 있다.

김한비 기자 itnews@


기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.