DeepSeek-R1은 토큰당 370억 개의 활성 파라미터를 사용하는 6710억 파라미터의 Mixture-of-Experts(MoE) 모델로, 추론 능력에 초점을 맞춘 대규모 강화 학습을 통해 학습되었습니다. 향상된 추론 패턴 발견과 인간 선호도 정렬을 위한 두 단계의 RL, 추론/비추론 능력 생성을 위한 두 단계의 SFT가 포함되어 있으며, 수학, 코딩, 추론 작업에서 OpenAI-o1과 유사한 성능을 보입니다.
아마존 노바 마이크로는 비용과 속도를 최적화한 텍스트 전용 모델입니다. 128K 토큰의 컨텍스트 윈도우를 갖추고 있어 텍스트 요약, 번역, 대화형 채팅, 기본 코딩 작업에 뛰어납니다. Amazon Nova 기초 모델 시리즈로 출시되었으며, 전용 데이터에 맞춘 파인튜닝 및 증류도 지원합니다.
DeepSeek-R1 | Nova Micro | |
---|---|---|
웹사이트
| ||
제공자
| ||
채팅
| ||
출시일
| ||
모달리티
| 텍스트 | 텍스트 |
API 제공자
| DeepSeek, HuggingFace | Amazon Bedrock |
지식 업데이트 종료일
| 알 수 없음 | 의도적으로 공개되지 않음 |
오픈 소스
| 예 | 아니오 |
입력 가격
| $0.55 100만 토큰당 | $0.04 100만 토큰당 |
출력 가격
| $2.19 100만 토큰당 | $0.14 100만 토큰당 |
MMLU
| 90.8% Pass@1 출처 | 77.6% CoT 출처 |
MMLU-Pro
| 84% EM 출처 | - |
MMMU
| - | - |
HellaSwag
| - | - |
HumanEval
| - | 81.1% pass@1 출처 |
MATH
| - | 69.3% CoT 출처 |
GPQA
| 71.5% Pass@1 출처 | 40% Main 출처 |
IFEval
| 83.3% Prompt Strict 출처 | 87.2% 출처 |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
모바일 앱 | - |