![]() |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
9일(현지시간) 주요 외신들에 따르면 삼성미래기술연구소(SAIT) 몬트리올 AI랩이 개발한 ‘타이니 리커전 모델(Tiny Recursion Model, TRM)’은 불과 700만 개 파라미터를 가진 초소형 AI 모델이지만, 일부 추론 벤치마크에서 구글의 제미니 2.5 프로(Gemini 2.5 Pro)와 오픈AI의 o3-mini 등 초대형 모델을 앞질렀다고 전했다.
AI 산업의 대세는 그동안 ‘크기 경쟁’이었다. 오픈AI의 GPT 시리즈, 구글의 제미니, 메타의 라마(Llama)까지 대부분의 모델은 파라미터 수를 늘려 성능을 확보하는 전략을 택했다. 그러나 삼성은 정반대의 길을 선택했다. TRM은 약 700만 개 파라미터, 즉 GPT-4의 1만 분의 1 수준에 불과하지만 ARC-AGI(추상·추론 코퍼스) 테스트에서 45% 정확도를 기록했다. 같은 과제에서 제미니 2.5 프로는 37%, 오픈AI의 o3-mini-high는 34.5%였다.
이에 대해 삼성 연구진은 “AI가 커야만 똑똑하다는 생각은 착각”이라며 “적절한 구조와 사고 과정을 설계하면 작은 모델도 깊이 생각할 수 있다”고 설명했다.
TRM의 핵심은 이름처럼 재귀적 사고 구조다. 모델은 스스로 내린 첫 답을 검토하고 수정하는 과정을 반복한다. 사람이 문제를 풀며 ‘이게 맞나?’ 하고 다시 계산하는 과정과 유사하다. 이런 자기 피드백 구조 덕분에 TRM은 단 두 층짜리 네트워크로도 복잡한 문제를 깊이 있게 처리할 수 있다. 기존의 복잡한 계층형 모델(HRM)이 서로 다른 주파수로 작동하는 두 네트워크를 병렬로 두었던 것과 달리, TRM은 구조를 단순화하면서 효율을 극대화했다. 그 결과 훈련 비용은 약 500달러, GPU는 엔비디아 H100 네 장, 학습 시간은 단 이틀에 불과했다.
TRM은 사람처럼 규칙을 찾아내야 하는 시각적·논리적 과제에서 강점을 보였다. 복잡한 스도쿠 문제에서는 정확도 87.4%로 이전 모델인 HRM의 55%를 크게 넘어섰고, 미로 찾기 문제에서도 85% 수준의 정확도를 기록했다. ARC-AGI에서는 45%의 정확도로 대형 모델이 풀기 어려운 문제들을 해결했다. 연구진은 이런 성과가 단순히 계산량이 아니라 “사고의 반복성”에서 비롯된 결과라고 분석했다. 재귀적 추론 구조가 이전 단계의 오류를 스스로 보정하고 논리적 일관성을 높였다는 설명이다.
TRM의 또 다른 의미는 접근성에 있다. 코드와 데이터, 학습 설정이 모두 MIT 오픈 라이선스로 공개돼 연구자나 기업 누구나 사용할 수 있다. 깃허브에 공개된 자료에는 단일 엔비디아 L40S GPU로 스도쿠 학습을 재현할 수 있는 방법부터, ARC-AGI 실험용 멀티 GPU 구성까지 상세히 안내되어 있다. 대규모 자원이 없는 대학 연구실이나 스타트업도 동일한 환경에서 실험할 수 있는 점은, 대형 AI 연구가 특정 기업에 집중되는 현실에서 의미 있는 균형점으로 평가된다.
AI 연구자 세바스티안 라슈카는 데이터센터 없이도 의미 있는 성과를 낼 수 있다는 점이 인상적이라며 작은 모델이지만 큰 가능성을 보여줬다고 부석했다. 실제로 TRM은 규모가 아닌 설계 철학의 전환을 상징한다. 거대한 연산 능력 대신 반복과 수정이라는 인간적 사고 방식을 모방함으로써, 효율성과 정확도를 동시에 얻었다.
물론 TRM이 대화나 창작처럼 복잡한 언어 이해 영역까지 확장되기에는 한계가 있다. 현재는 스도쿠, 미로, 퍼즐 등 규칙 기반 과제에 특화된 모델로, 대형 언어모델이 지닌 맥락 처리 능력은 갖추지 못했다. 다만, 삼성의 몬트리올 연구팀은 TRM을 통해 더 큰 모델이 아니라 더 똑똑한 모델이라는 방향성을 제시한데 의미가 크다.
- Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지 -
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.

