컨텐츠 바로가기

    03.27 (금)

    이슈 IT기업 이모저모

    [비즈톡톡] 구글 ‘메모리 절감 기술’에 흔들린 반도체株… “수요 꺾임 아닌 확대 신호”

    댓글 첫 댓글을 작성해보세요
    주소복사가 완료되었습니다
    구글 리서치가 최근 공개한 인공지능(AI) 추론 최적화 기술 ‘터보퀀트(TurboQuant)’를 계기로 글로벌 메모리 반도체 기업들의 주가가 출렁였습니다. AI 연산 과정에서 메모리 사용량을 획기적으로 줄일 수 있다는 점이 부각되면서, 고대역폭메모리(HBM)를 포함한 메모리 수요 둔화 우려가 확산된 영향입니다.

    실제 지난 25일(현지 시각) 뉴욕 증시에서 마이크론 테크놀로지 주가는 3.4% 하락하며 5거래일 연속 약세를 보였습니다. 여파는 국내 증시로도 번져 26일 삼성전자는 4.71% 하락한 18만100원에, SK하이닉스는 6.23% 급락한 93만3000원에 장을 마감했습니다. 구글발 ‘효율화 쇼크’에 투자 심리가 급격히 냉각된 결과입니다.

    이번 논란의 중심인 터보퀀트는 대규모언어모델(LLM)이 대화 맥락을 기억하는 창고 역할을 하는 ‘KV(Key-Value) 캐시’를 압축하는 알고리즘입니다. 기존 방식이 단순히 데이터 정밀도를 낮춰 정보를 손실시켰다면, 터보퀀트는 데이터의 좌표계 자체를 변환하는 ‘벡터 양자화’ 방식을 사용합니다. 마치 여행 가방에 옷을 그냥 넣지 않고 진공 압축팩으로 부피만 줄여 넣는 것과 같습니다. 이를 통해 정확도 손실 없이 KV 캐시 메모리 사용량을 최소 6배 낮추고, 엔비디아 H100 그래픽처리장치(GPU) 환경에서 연산 속도를 최대 8배까지 끌어올리는 혁신을 보여줬습니다.

    다만 시장 일각에서 제기된 ‘메모리 수요 감소’ 해석은 성급하다는 반론이 지배적입니다. 메모리 수요를 견인하는 본질은 단순 효율 개선이 아닌, 모델 규모의 비약적 확대와 멀티모달(Multi-modal) 확장 등 구조적 변화에 있기 때문입니다. 특히 텍스트를 넘어 고해상도 영상과 음성을 동시에 처리해야 하는 멀티모달 환경에서는 기억해야 할 정보량이 기하급수적으로 늘어나는데, 터보퀀트 같은 압축 기술은 오히려 이러한 고난도 서비스의 상용화를 앞당겨 더 많은 메모리 탑재를 유도하게 됩니다.

    글로벌 투자은행(IB)들도 이번 기술 혁신이 오히려 하이퍼스케일러들의 투자를 촉발할 것으로 내다봤습니다. 모건스탠리는 보고서를 통해 “터보퀀트는 전체 메모리가 아닌 KV 캐시 영역을 효율화하는 것”이라며 “추론 비용 감소는 그동안 비용 부담으로 AI 도입을 망설였던 기업들을 대거 유입시켜 결과적으로 전체 메모리 수요를 확장할 것”이라고 진단했습니다. 골드만삭스 역시 “비용 절감은 하이퍼스케일러의 투자 대비 수익률(ROI)을 높여 인프라 투자를 더욱 공격적으로 만드는 기폭제가 될 것”이라고 분석했습니다.

    실제 AI 산업에서는 비용 절감이 곧 수요 증가로 이어지는 ‘제본스의 역설’이 반복되고 있습니다. 모델 효율이 개선되어 토큰당 비용이 낮아질수록 기존에 비용 부담으로 제한됐던 장문 분석이나 실시간 멀티모달 서비스가 폭발적으로 늘어나며, 결과적으로 전체 메모리 수요를 밀어 올리는 선순환 구조가 형성된다는 것입니다.

    국내 메모리 반도체 업계 관계자는 “기술적 효율화는 오히려 더 많은 추론 수요를 유발할 가능성이 크다”며 “AI 데이터센터 투자가 가팔라지는 상황에서 이를 수요 꺾임으로 보는 것은 과도한 우려”라고 분석했습니다. 이어 “구글, 메타, 오픈AI 등 주요 기업 간 경쟁이 지속되는 한, 더 높은 성능을 향한 메모리 수요 둔화를 논하기는 이르다”고 덧붙였습니다.

    최효정 기자(saudade@chosunbiz.com)

    <저작권자 ⓒ ChosunBiz.com, 무단전재 및 재배포 금지>
    기사가 속한 카테고리는 언론사가 분류합니다.
    언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.