성능 및 효율 개선한 최신 모델 3종 허깅페이스에 오픈소스로 공개
MLA·MoE 기법 적용해 연산 비용 낮추고 응답 속도 최적화
향후 AI 에이전트 시나리오 특화 모델 개발 계획
사진ㅣ카카오 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
인더뉴스 이종현 기자ㅣ카카오[035720]가 19일 허깅페이스에 자체 개발한 차세대 언어모델 '카나나-2'를 오픈소스로 공개했다고 밝혔습니다.
카카오는 지난해 자체 개발 AI 모델 '카나나'의 라인업을 선보인 이래 경량 사이즈의 모델부터 고난이도 문제 해결에 특화된 '카나나-1.5'까지 꾸준히 오픈소스로 추가 공개해 왔습니다.
이번에 선보인 '카나나-2' 모델은 성능과 효율을 개선한 최신 연구 성과로 사용자 명령의 맥락을 파악하고 능동적으로 동작하는 '동료'와 같은 AI 구현에 초점을 맞췄습니다.
공개된 모델은 총 3종으로 기본 모델인 '베이스', 사후 학습을 통해 지시 이행 능력을 높인 '인스트럭트', 그리고 이번에 처음 선보이는 '추론' 특화 모델로 구성됐습니다. 개발자들이 자체 데이터를 활용해 자유롭게 모델을 파인튜닝할 수 있도록 학습 단계의 웨이트를 모두 공개한 점이 특징입니다.
카나나-2는 에이전틱 AI 구현의 핵심인 도구 호출 기능과 사용자 지시 이행 능력이 향상됐습니다. 이전 모델(카나나-1.5-32.5b) 대비 다중 대화 도구 호출 능력을 3배 이상 향상했으며 복잡한 단계별 요구 사항을 정확하게 이해하고 수행하도록 설계됐습니다.
지원 언어 역시 기존 한국어, 영어에서 한국어, 영어, 일본어, 중국어, 태국어, 베트남어까지 6개로 확장했습니다.
기술적으로는 효율성을 극대화하기 위해 최신 아키텍처를 도입했습니다. 긴 입력을 효율적으로 처리하는 방식인 'MLA' 기법을 적용했으며 추론 시 필요한 파라미터만 활성화하는 'MoE' 구조를 적용했습니다. 이를 통해 적은 메모리 자원으로도 긴 문맥을 효율적으로 처리할 수 있게 됐으며 추론 시 필요한 파라미터만 활성화해 연산 비용과 응답 속도가 개선됐습니다. 대규모 동시 접속 요청을 압도적으로 빠르게 처리하는 성능 진화를 만들기도 했습니다.
성능 지표에서도 인스트럭트 모델의 경우 동일한 구조의 최신 모델 'Qwen3-30B-A3B'와 유사한 수준을 달성했으며 이달 한국정보과학회와 공동 개최한 'AI 에이전트 경진대회'에서 참가자들에게 선공개되어 실제 에이전트 개발 환경에서의 활용 능력이 검증되기도 했습니다.
추론 특화 모델은 다양한 사고 능력이 요구되는 벤치마크에서 추론 모드를 적용한 'Qwen3-30B-A3B'와 유사한 성능을 보이며 추론형 AI로서의 발전 가능성을 확인했습니다.
카카오는 향후 동일한 MoE 구조를 기반으로 모델 규모를 확장하고 고차원적인 지시 이행 능력을 확보할 계획입니다. 이와 더불어 복잡한 AI 에이전트 시나리오에 특화된 모델 개발과 온 디바이스 경량화 모델의 고도화를 지속적으로 추진할 계획입니다.
김병학 카카오 카나나 성과리더는 "혁신적인 기술과 기능을 갖춘 AI 서비스의 근간은 기반이 되는 언어모델의 성능과 효율"이라며 "높은 성능에 초점을 둔 모델을 넘어 실제 AI 서비스에 적용되어 빠르고 효과적으로 동작할 수 있는 실용성을 갖춘 AI 모델을 개발하고 꾸준히 오픈소스로 공유하며 국내외 AI 연구 생태계 활성화에 기여할 계획"이라고 말했습니다.
Copyright @2013~2025 iN THE NEWS Corp. All rights reserved.
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
