'엑사원 딥-32B(320억 개매개변수)'는 딥시크 R1(6,710억 개매개변수)의 약 5% 규모의매개변수만으로도 우수한 성능을 보여주고 있다.
특히 한국어에 강점이 있는 엑사원 파운데이션 모델을 기반으로 하여 2025학년도 수능 수학 영역에서 94.
5점으로 최고점을 기록했으며, 모든 선택과목에서 1등급을.
‘엑사원 딥-32B(320억개매개변수)’는 딥시크 R1(6710억개매개변수)의 5% 규모매개변수만으로도 미국과 중국 모델들 대비 우수한 성능을 갖췄다.
LG AI연구원은 글로벌 오픈소스 AI 플랫폼 허깅 페이스(Hugging Face)에매개변수가 다른 3가지 ‘엑사원 딥’의 논리적 사고력과 문제해결 능력을 평가하는.
◆ 32B모델, 딥시크 대비 5% 규모로도 글로벌 최고 수준 성능 달성 '엑사원 딥-32B(320억개매개변수)'는 딥시크 R1(6,710억개매개변수)의 5% 규모매개변수만으로도 미국과 중국 모델들과의 비교에서 우수한 성능을 보였다.
LG AI연구원은 글로벌 오픈소스 AI 플랫폼 허깅 페이스(Hugging Face)에매개변수가.
LG AI연구원은 '엑사원 딥-32B(320억 개매개변수)'가 딥시크 R1(6710억 개매개변수)의 5% 규모매개변수만으로 우수한 성능을 보였다고 전했다.
글로벌 오픈소스 AI 플랫폼 허깅 페이스(Hugging Face)에서매개변수가 다른 3가지 엑사원 딥에 대해 다양한 성능 평가를 진행하고 그 결과를 공개했는데.
'엑사원 딥-32B(320억 개매개변수)'는 딥시크 R1(6710억 개매개변수)의 5% 규모매개변수만으로도 미국과 중국 모델들과의 비교에서 우수한 성능을 보였다.
LG AI연구원은 글로벌 오픈소스 AI 플랫폼 허깅 페이스에매개변수가 다른 3가지 '엑사원 딥'의 논리적 사고력과 문제해결 능력을 평가하는 다양한.
◇ 32B(320억 개매개변수) 모델, 딥시크 대비 5% 규모로도 글로벌 최고 수준 성능 달성 '엑사원 딥-32B(320억 개매개변수)'는 딥시크 R1(6,710억 개매개변수)의 5% 규모매개변수만으로도 미국과 중국 모델들과의 비교에서 우수한 성능을 보였다.
LG AI연구원은 글로벌 오픈소스 AI 플랫폼 허깅 페이스(Hugging.
‘엑사원 딥-32B(320억 개매개변수)’는 딥시크 R1(6710억 개매개변수)의 5% 규모매개변수만으로도 미국과 중국 모델들과의 비교에서 우수한 성능을 보였다는 게 LG AI 연구원 설명이다.
LG AI연구원은 글로벌 오픈소스 AI 플랫폼 허깅 페이스에매개변수가 다른 3가지 ‘엑사원 딥’의 논리적 사고력과.
'엑사원 딥-32B(320억개매개변수)'는 딥시크 R1(6710억개매개변수)의 5% 규모매개변수만으로도 미국과 중국 모델들과의 비교에서 우수한 성능을 보였다.
LG AI연구원은 글로벌 오픈소스 AI 플랫폼 허깅 페이스에매개변수가 다른 3가지 '엑사원 딥'의 논리적 사고력과 문제해결 능력을 평가하는 다양한.
'엑사원 딥-32B(320억 개매개변수)'는 딥시크 R1(6천710억 개매개변수)의 5% 규모매개변수만으로도 미국과 중국 모델들과의 비교에서 우수한 성능을 보였다.
LG AI연구원은 글로벌 오픈소스 AI 플랫폼 허깅 페이스(Hugging Face)에매개변수가 다른 3가지 '엑사원 딥'의 논리적 사고력과 문제해결 능력을.
성능 검증 결과 엑사원 딥-32B(320억개매개변수)는 딥시크 R1(6710억 개매개변수)의 5% 규모매개변수만으로도 미국, 중국 모델들과의 비교에서 우수한 성능을 보였다.
LG AI연구원은 글로벌 오픈소스 AI 플랫폼 허깅 페이스에매개변수가 다른 3가지 엑사원 딥의 논리적 사고력과 문제해결 능력을 평가하는.