컨텐츠 바로가기

    12.07 (일)

    이슈 모바일 게임 소식

    240억 파라미터도, 4K 업스케일도… 스냅드래곤 X2 ‘온디바이스 AI’ 네버스톱 [르포]

    댓글 첫 댓글을 작성해보세요
    주소복사가 완료되었습니다

    [스냅드래곤X딥다이브] 전력·AI·테스트 로봇까지

    디지털데일리

    <이미지를 클릭하시면 크게 보실 수 있습니다>


    [샌디에이고(미국)=디지털데일리 김문기기자] 샌디에이고 퀄컴 본사 연구동은 겉으로 보기엔 조용했지만 내부로 들어서는 순간 분위기가 달라졌다. 흰색 조명 아래 길게 이어진 실험실 테이블들은 모두 케이블과 계측 장비로 가득했고, 무심히 놓인 듯한 개발용 메인보드에서는 초당 수천 번의 전력 샘플이 측정되고 있었다. 모니터에는 CPU·GPU·NPU·Fabric 전력 파형이 층위를 이루며 움직이고 있다.

    12일(현지시간) 퀄컴은 ‘스냅드래곤 X 시리즈 아키텍처 딥다이브 2025’ 행사 일환으로 미국 샌디에이고 퀄컴 본사에서 퀄컴이 지속 반복해 강조해온 '전력 최적화 DNA'의 실제 모습을 실험실 테스트를 통해 증명했다.

    스냅드래곤 X2 엘리트는 지난 몇 달 동안 ‘전력 효율’과 ‘장시간 사용성’이라는 표현으로 소개돼 왔지만 이날 공개된 실험실은 그 단어 뒤에 어떤 공정과 절차가 존재하는지 실제 작동을 통해 답하는 공간이었다.

    디지털데일리

    <이미지를 클릭하시면 크게 보실 수 있습니다>


    ◆ ‘배터리 30시간’ 전력 실험실

    전력 실험 구역에서 연구원은 먼저 오피스 생산성 시나리오를 띄웠다. 워드·엑셀·아웃룩·파워포인트·원노트가 자동으로 열리고 편집·저장 작업을 반복하자, 전력 파형은 일정한 리듬을 그리기 시작했다. CPU 레일이 순간적으로 솟구쳤다가 곧 진정되면 패브릭(Fabric)이 응답했고, 메모리 인터페이스가 이를 따라잡았다. AI가 필요한 순간에는 NPU가 비집고 등장하며 그래프의 색깔이 탄력을 얻었다.

    현장 연구원은 그 지점을 가리키며 “이 파형이 실제 배터리 수명을 결정합니다. CPU가 언제 깨어나고, 어떤 시점에 패브릭이 데이터를 받아야 하며, NPU가 어느 구간에서 개입하는지 모두 조절합니다. 숫자 하나의 배터리 시간이 아니라, 과정 전체가 품질을 만든다”라고 설명했다.

    퀄컴은 이 실험을 통해 실제 배터리 테스트를 대신할 정도로 정교한 모델링을 갖고 있다. 단일 서브시스템을 완전히 분리해 CPU만·GPU만·모뎀만 동작시키는 ‘원자 단위 최적화’에서 시작해 오디오·카메라·비디오·게임·AI처럼 다양한 실제 기능 단위의 시나리오를 점진적으로 적용하고, 마지막으로 팀즈(Teams) 화상회의와 같은 고난도 복합 시나리오를 자동화된 스위트로 구동하며 전력·성능·발열·안정성을 반복적으로 조율한다.

    최종적으로는 로그 분석을 통해 각 레일의 전압·주파수가 설계 기준에 맞게 작동하는지 확인한다. 관계자는 “전력 최적화는 하루 이틀의 작업이 아니다. 사전에 예측한 모델과 실제 실리콘의 행동을 맞춰가는 작업을 매일 반복한다. ‘전력을 아낀다’는 말은 내부적으로 이런 과정을 거친다는 의미다"라고 강조했다.

    디지털데일리

    <이미지를 클릭하시면 크게 보실 수 있습니다>


    ◆ ‘240억 파라미터를 PC에서’

    AI 데모 공간으로 이동하자 분위기가 달라졌다. 첫 번째로 시연된 것은 사르밤 AI였다. 힌디어 포함 10개 인도 언어에 특화된 240억 파라미터 초거대 모델로, 원래 모바일은 물론 PC에서도 온디바이스로 실행하기 어려운 규모다. 힌디어 문서를 불러온 뒤 출력 언어를 영어 요약으로 바꾸자마자 NPU 사용률이 상승했고, 요약 결과가 거의 지연 없이 화면에 출력됐다.

    시연에 나선 관계짜는 “이 크기의 모델은 원래 PC에서도 온디바이스로 돌리기 어렵다. 하지만 PCQ, SSD, 멀티그래프 기반의 최적화로 초당 17토큰 정도의 실행 속도를 확보했다. 이 결과가 바로 그거다"라고 말했다.

    디지털데일리

    <이미지를 클릭하시면 크게 보실 수 있습니다>


    이어서 분산 AI 시연이 진행됐다. 스마트폰 ‘애니씽 LLM’에서 긴 PDF 문서를 불러오고 “요약해줘”라고 입력하자, 백팩 안에 넣어둔 PC의 NPU가 순간적으로 작동하고 결과가 다시 스마트폰 화면에 나타났다. PC는 손에 들고 있지 않았지만, 고성능 NPU는 원격으로 스마트폰의 질문을 처리했다.

    관계자는 “스마트폰이나 웨어러블이 PC의 NPU를 바로 호출할 수 있게 되면 PC는 단순한 기기가 아니라 에이전틱 AI의 허브가 된다. 앞으로는 ‘기기가 눈앞에 있는지’보다 ‘기기가 어떤 AI 자원을 제공할 수 있는지’가 더 중요해진다"고 말했다.

    텍스트 기반 창작 AI 데모는 흥미롭다. “나뭇잎 위에 앉은 나비”라는 문장을 입력하자, NPU가 512×320 해상도·49프레임 분량의 2초짜리 영상을 생성했고, 이 영상을 다시 영상 AI 애플리케이션으로 가져와 GPU·NPU 이종 가속으로 4K에 가까운 해상도로 업스케일링했다.

    디지털데일리

    <이미지를 클릭하시면 크게 보실 수 있습니다>


    해당 연구원은 “이 애플리케이션은 타일 기반 구조라 NPU와 GPU를 병렬로 사용한다. 어떤 코어가 여유 있는지 판단해 실시간으로 선택한다. 프레임과 해상도를 빠르게 올리려면 이런 구조가 필수다”라고 말했다.

    마지막 데모는 넥사 AI(Nexa AI)였다. 연구원은 캘린더 초대장 이미지를 불러오고 모델에 이미지 경로를 전달했다. NPU가 활성화되자 곧바로 이벤트 제목, 날짜, 시간, 위치 등 핵심 정보를 자동으로 추출했다. 이어 노트북 마이크를 켜고 “What is Nexa AI?”라고 말하자, 음성에서 텍스트, LLM, 응답 생성이 순조롭게 이어졌다.

    관계자는 “개발자는 내부 최적화를 신경 쓸 필요가 없다. 이 플랫폼은 오픈AI API와 동일한 인터페이스다. PC든 모바일이든, NPU든 GPU든, 내부 가속 구조는 저희가 자동으로 결정한다”고 지적했다.

    디지털데일리

    <이미지를 클릭하시면 크게 보실 수 있습니다>


    ◆ 사용자 100만 명의 하루를 물리적으로 재현하는 공간

    다음으로 이동한 곳은 마지막 단계의 제품 테스트 구역이었다. 외형은 어딘가 단정했지만 내부는 오히려 움직임으로 가득했다. 카메라 테스트 공간에서는 저조도·역광·난반사 환경에서 얼굴 인증과 윈도우 헬로(Windows Hello)가 반복적으로 실행되고 있었고, 양옆에서는 로봇팔이 노트북 화면을 수천 번 열고 닫았다.

    연구원은 “이건 단순한 내구성 테스트가 아니다. 화면을 열고 닫는 순간 생기는 전력·신호 변화와 안정성을 측정하는 과정이다. 모든 절차는 자동화돼 있고, 문제가 생기면 즉시 담당팀에 경고가 전달된다"고 말했다.

    한쪽에서는 USB·액세서리·네트워크 테스트가 이어지고 있었다. 그는 “PC를 100만 명이 하루 동안 사용하는 환경을 압축해 재현하는 곳이다. 이동 중 네트워크 핸드오버, 고속철 환경, 와이파이, 모뎀 전환 같은 조건을 모두 실험실에서 만들어낸다. 세계 어느 지역의 네트워크 환경도 여기에서 재현할 수 있다"고 덧붙였다.

    - Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지 -
    기사가 속한 카테고리는 언론사가 분류합니다.
    언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.