미스트랄은 13일(현지시간) 공식블로그를 통해 더 효율적인 아키텍처로 업그레이드한 오픈 소스 코딩 모델 '코드스트랄 25.01'을 공개했다.
이 모델은 낮은 지연 시간과 고빈도 작업에 최적화되어 있으며, 코드 수정, 테스트 생성 및 중간 채우기 작업을 지원한다.
"코드스트랄 25.01은 동급 코딩 모델들 중 확실한 선두주자가 될 것"이라며 "이전 버전보다 두배 더 빠를 것"이라고 주장했다.
실제로 인간 선호도를 평가하는 벤치마크 LMSYS의 '코파일럿 아레나 리더보드'에서 딥시크나 클로드 등과 공동 1위에 올랐다.
<이미지를 클릭하시면 크게 보실 수 있습니다> |
벤치마크 테스트에서도 좋은 성적을 거뒀다. 파이썬 코딩 테스트에서 우수한 성과를 보였으며, 휴먼이밸 테스트에서 86.6%의 점수를 기록했다. 이는 기존의 '코드스트랄'과 '코드라마 70B 인스트럭트' '딥시크 코드 33B 인스트럭트'를 능가하는 성과다.
또 미스트랄의 라 플랫폼(la Plateforme)과 구글 버텍스 AI를 통해 모델 API에 접근할 수 있으며, 애저 AI 파운드리에서는 미리보기로 제공되며, 곧 아마존 베드록에서도 사용 가능할 예정이다.
한편, 지난 해에는 주목할 만한 코딩 전용 모델들이 여럿 출시됐다. 알리바바는 '큐원2.5-코더'를 출시했고, 중국의 '딥시크 코더'는 GPT-4 터보를 이긴 첫번째 모델로 주목받았다. 마이크로소프트(MS)는 코딩과 수학 문제 해결이 가능한 전문가 혼합 모델(MOE) '그린-MoE(GRIN-MoE)'를 공개했다.
박찬 기자 cpark@aitimes.com
<저작권자 Copyright ⓒ AI타임스 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.