DeepSeek-R1은 토큰당 370억 개의 활성 파라미터를 사용하는 6710억 파라미터의 Mixture-of-Experts(MoE) 모델로, 추론 능력에 초점을 맞춘 대규모 강화 학습을 통해 학습되었습니다. 향상된 추론 패턴 발견과 인간 선호도 정렬을 위한 두 단계의 RL, 추론/비추론 능력 생성을 위한 두 단계의 SFT가 포함되어 있으며, 수학, 코딩, 추론 작업에서 OpenAI-o1과 유사한 성능을 보입니다.
LLaMA 4 Scout는 170억 개의 파라미터를 갖춘 모델로, 16개의 활성 전문가를 사용하는 혼합 전문가(Mixture-of-Experts) 아키텍처를 기반으로 합니다. 이 모델은 다양한 벤치마크 작업에서 Gemma 3, Gemini 2.0 Flash-Lite, Mistral 3.1과 같은 경쟁 모델을 꾸준히 능가하며, 해당 분야 최고의 멀티모달 모델로 평가받고 있습니다. 뛰어난 성능에도 불구하고, Int4 양자화를 통해 단일 NVIDIA H100 GPU에서도 실행 가능할 정도로 매우 효율적입니다. 또한 업계 최고 수준인 1,000만 토큰 컨텍스트 윈도우를 제공하며, 텍스트, 이미지, 비디오 입력을 자연스럽게 처리하는 네이티브 멀티모달 기능을 갖추고 있어 고급 현실 응용 분야에 적합합니다.
DeepSeek-R1 | Llama 4 Scout | |
---|---|---|
웹사이트
| ||
제공자
| ||
채팅
| ||
출시일
| ||
모달리티
| 텍스트 | 텍스트 이미지 비디오 |
API 제공자
| DeepSeek, HuggingFace | Meta AI, Hugging Face, Fireworks, Together, DeepInfra |
지식 업데이트 종료일
| 알 수 없음 | 2025-04 |
오픈 소스
| 예 | 예 (출처) |
입력 가격
| $0.55 100만 토큰당 | 정보 없음 |
출력 가격
| $2.19 100만 토큰당 | 정보 없음 |
MMLU
| 90.8% Pass@1 출처 | 정보 없음 |
MMLU-Pro
| 84% EM 출처 | 74.3% Reasoning & Knowledge 출처 |
MMMU
| - | 69.4% Image Reasoning 출처 |
HellaSwag
| - | 정보 없음 |
HumanEval
| - | 정보 없음 |
MATH
| - | 정보 없음 |
GPQA
| 71.5% Pass@1 출처 | 57.2% Diamond 출처 |
IFEval
| 83.3% Prompt Strict 출처 | 정보 없음 |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
모바일 앱 | - |