DeepSeek-R1

DeepSeek-R1은 토큰당 370억 개의 활성 파라미터를 사용하는 6710억 파라미터의 Mixture-of-Experts(MoE) 모델로, 추론 능력에 초점을 맞춘 대규모 강화 학습을 통해 학습되었습니다. 향상된 추론 패턴 발견과 인간 선호도 정렬을 위한 두 단계의 RL, 추론/비추론 능력 생성을 위한 두 단계의 SFT가 포함되어 있으며, 수학, 코딩, 추론 작업에서 OpenAI-o1과 유사한 성능을 보입니다.

Qwen2.5-VL-32B

Qwen2-VL이 출시된 이후 지난 5개월 동안 개발자들은 이를 기반으로 다양한 모델을 구축하고 피드백을 제공해왔습니다. 이제 Qwen2.5-VL은 이미지, 텍스트, 차트에 대한 정밀 분석과 구조화된 JSON 출력의 객체 위치 지정 기능 등 향상된 기능을 제공합니다. 긴 동영상 이해, 핵심 이벤트 식별, 컴퓨터와 휴대폰 도구와 상호작용하는 에이전트 역할 수행이 가능합니다. 모델 아키텍처는 동적 비디오 처리와 최적화된 ViT 인코더를 통해 속도와 정확도가 개선되었습니다.

DeepSeek-R1Qwen2.5-VL-32B
웹사이트 ?
제공자 ?
채팅 ?
출시일 ?
모달리티 ?
텍스트 ?
텍스트 ?
이미지 ?
비디오 ?
API 제공자 ?
DeepSeek, HuggingFace
-
지식 업데이트 종료일 ?
알 수 없음
알 수 없음
오픈 소스 ?
(출처)
입력 가격 ?
$0.55 100만 토큰당
$0
출력 가격 ?
$2.19 100만 토큰당
$0
MMLU ?
90.8%
Pass@1
출처
78.4%
출처
MMLU-Pro ?
84%
EM
출처
49.5%
MMMU ?
-
70%
HellaSwag ?
-
정보 없음
HumanEval ?
-
정보 없음
MATH ?
-
82.2%
GPQA ?
71.5%
Pass@1
출처
46.0%
Diamond
IFEval ?
83.3%
Prompt Strict
출처
정보 없음
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
모바일 앱
-

LLM 비교

댓글 추가


10%
당사 웹사이트는 쿠키를 사용합니다.

개인정보 및 쿠키 정책: 본 사이트는 쿠키를 사용합니다. 사이트를 계속 이용하면 쿠키 사용에 동의하는 것으로 간주됩니다.