컨텐츠 바로가기

05.24 (금)

데이터브릭스, LLM 'DBRX' 출시…"GPT-3.5·LLaMa2 능가"

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
[AI리포터]
디지털투데이

<이미지를 클릭하시면 크게 보실 수 있습니다>


[디지털투데이 AI리포터] 데이터 및 AI 기업 데이터브릭스(Databricks)가 오픈소스 거대언어모델(LLM) 'DBRX'를 공개했다고 28일(현지시간) 일본 IT미디어가 전했다.

이는 오픈소스 프로젝트 메가블록스를 기반으로 한 전문가 혼합(MoE) 모델로 기존 오픈소스 LLM 모델보다 훈련 속도와 연산 효율이 2배 이상 빠른 것으로 알려졌다.

데이터브릭스에 따르면 DBRX는 1320억개의 파라미터로 표준 업계 벤치마크에서 메타의 라마(LLaMa)2의 2배 크기라고 한다. 또 언어 이해, 프로그래밍, 수학, 논리 벤치마크 등에서 뛰어난 성과를 보였으며 일부 벤치마크에서는 GPT-3.5보다 높은 성능을 기록하기도 했다.

DBRX는 엔비디아의 GPU 모듈인 H100을 3072대 사용해 3개월간의 훈련을 거쳐 피드백을 통해 품질과 안전성을 개선했다. 현재 깃허브(GitHub)와 허깅 페이스(Hugging Face)를 통해 연구와 상업적 용도로 무료 사용이 가능하다. 이외에도 아마존웹서비스(AWS)와 구글클라우드, 마이크로소프트 애저(Azure)에서도 직접 사용할 수 있다.

<저작권자 Copyright ⓒ 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지>
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.