애플 인텔리전스 [사진: 셔터스톡] |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
[디지털투데이 AI리포터] iOS 26에서 애플은 개발자들에게 애플 인텔리전스의 파운데이션 모델을 활용할 수 있는 프레임워크를 제공한다.
이 프레임워크를 활용하면 앱 개발자들은 애플의 온디바이스 AI를 직접 앱에 통합할 수 있게 됐다고 16일(현지시간) IT매체 테크레이더가 보도했다.
애플은 이번 프레임워크가 라이팅 툴(Writing Tools), 이미지 플레이그라운드(Image Playground), 젠모지(Genmoji) 등 자사 서비스에 적용된 것과 동일한 인공지능 기술을 개발자에게 제공한다고 밝혔다. 클라우드 기반이 아닌 기기 내 모델을 직접 호출하는 방식으로, 개인정보를 외부로 전송하지 않아 속도와 보안을 모두 확보할 수 있다.
대표적인 활용 사례로는 피트니스 앱 스마트짐(SmartGym), 저널링 앱 스토익 저널(Stoic Journal), 생물학 학습 앱 셀워크(CellWalk), 생산성 앱 스터프(Stuff), 영상 편집 앱 블로(VLLO) 등이 있다.
스마트짐은 사용자의 운동 기록을 분석해 맞춤형 루틴을 제안하고, 스토익 저널은 일기 내용을 기반으로 감정 변화를 감지해 개인화된 피드백을 제공한다. 셀워크는 생물 구조를 자연어로 설명하고, 스터프는 음성·이미지 인식으로 할 일을 자동 정리한다. 블로는 영상의 분위기와 장면을 분석해 음악과 편집을 추천한다.
애플은 "이 프레임워크가 앱이 더 자연스럽고 똑똑하게 사용자를 이해하도록 돕는 핵심 도구"라며, 온디바이스 AI와 클라우드 기반 모델을 결합한 하이브리드 시스템으로 향후 기능을 확장할 계획이라고 밝혔다.
<저작권자 Copyright ⓒ 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
