DeepSeek-R1은 토큰당 370억 개의 활성 파라미터를 사용하는 6710억 파라미터의 Mixture-of-Experts(MoE) 모델로, 추론 능력에 초점을 맞춘 대규모 강화 학습을 통해 학습되었습니다. 향상된 추론 패턴 발견과 인간 선호도 정렬을 위한 두 단계의 RL, 추론/비추론 능력 생성을 위한 두 단계의 SFT가 포함되어 있으며, 수학, 코딩, 추론 작업에서 OpenAI-o1과 유사한 성능을 보입니다.
LLaMA 4 Maverick은 128명의 전문가로 구성된 혼합 전문가 아키텍처에서 170억 개의 활성 파라미터를 사용하는 첨단 멀티모달 모델로, 총 4,000억 개의 파라미터를 갖고 있습니다. GPT-4o 및 Gemini 2.0 Flash 등 주요 경쟁 모델보다 다양한 벤치마크에서 뛰어난 성능을 보이며, DeepSeek V3와 유사한 추론 및 코딩 능력을 절반 이하의 활성 파라미터로 구현합니다. 효율성과 확장성을 위해 설계된 Maverick은 최고 수준의 성능 대비 비용 효율성을 자랑하며, 실험용 챗봇 버전은 LMArena에서 ELO 점수 1417을 기록했습니다. 이처럼 대규모 모델임에도 불구하고 단일 NVIDIA H100 호스트에서 실행이 가능하여 배포가 간편합니다.
DeepSeek-R1 | Llama 4 Maverick | |
---|---|---|
웹사이트
| ||
제공자
| ||
채팅
| ||
출시일
| ||
모달리티
| 텍스트 | 텍스트 이미지 비디오 |
API 제공자
| DeepSeek, HuggingFace | Meta AI, Hugging Face, Fireworks, Together, DeepInfra |
지식 업데이트 종료일
| 알 수 없음 | 2024-08 |
오픈 소스
| 예 | 예 (출처) |
입력 가격
| $0.55 100만 토큰당 | 정보 없음 |
출력 가격
| $2.19 100만 토큰당 | 정보 없음 |
MMLU
| 90.8% Pass@1 출처 | 정보 없음 |
MMLU-Pro
| 84% EM 출처 | 80.5% 출처 |
MMMU
| - | 73.4% 출처 |
HellaSwag
| - | 정보 없음 |
HumanEval
| - | 정보 없음 |
MATH
| - | 정보 없음 |
GPQA
| 71.5% Pass@1 출처 | 69.8% Diamond 출처 |
IFEval
| 83.3% Prompt Strict 출처 | 정보 없음 |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
모바일 앱 | - | |
VideoGameBench | ||
총점 | - | 0% |
Doom II | - | 0% |
Dream DX | - | 0% |
Awakening DX | - | 0% |
Civilization I | - | 0% |
Pokemon Crystal | - | 0% |
The Need for Speed | - | 0% |
The Incredible Machine | - | 0% |
Secret Game 1 | - | %0 |
Secret Game 2 | - | 0% |
Secret Game 3 | - | 0% |