DeepSeek-R1은 토큰당 370억 개의 활성 파라미터를 사용하는 6710억 파라미터의 Mixture-of-Experts(MoE) 모델로, 추론 능력에 초점을 맞춘 대규모 강화 학습을 통해 학습되었습니다. 향상된 추론 패턴 발견과 인간 선호도 정렬을 위한 두 단계의 RL, 추론/비추론 능력 생성을 위한 두 단계의 SFT가 포함되어 있으며, 수학, 코딩, 추론 작업에서 OpenAI-o1과 유사한 성능을 보입니다.
앤트로픽이 개발한 Claude 3.5 Haiku는 200,000 토큰의 컨텍스트 윈도우를 제공합니다. 입력 토큰 백만 개당 $1, 출력 토큰 백만 개당 $5의 가격이며, 프롬프트 캐싱으로 최대 90%, 메시지 배치 API로 최대 50% 절감이 가능합니다. 2024년 11월 4일 출시되었으며, 코드 자동완성, 대화형 챗봇, 데이터 추출 및 라벨링, 실시간 콘텐츠 검열 등에 탁월한 성능을 보입니다.
DeepSeek-R1 | Claude 3.5 Haiku | |
---|---|---|
웹사이트
| ||
제공자
| ||
채팅
| ||
출시일
| ||
모달리티
| 텍스트 | 텍스트 |
API 제공자
| DeepSeek, HuggingFace | Anthropic, AWS Bedrock, Vertex AI |
지식 업데이트 종료일
| 알 수 없음 | 01.04.2024 |
오픈 소스
| 예 | 아니오 |
입력 가격
| $0.55 100만 토큰당 | $0.80 100만 토큰당 |
출력 가격
| $2.19 100만 토큰당 | $4.00 |
MMLU
| 90.8% Pass@1 출처 | 정보 없음 |
MMLU-Pro
| 84% EM 출처 | 65% 0-shot CoT 출처 |
MMMU
| - | 정보 없음 |
HellaSwag
| - | 정보 없음 |
HumanEval
| - | 88.1% 0-shot 출처 |
MATH
| - | 69.4% 0-shot CoT 출처 |
GPQA
| 71.5% Pass@1 출처 | 정보 없음 |
IFEval
| 83.3% Prompt Strict 출처 | 정보 없음 |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
모바일 앱 |