DeepSeek-R1은 토큰당 370억 개의 활성 파라미터를 사용하는 6710억 파라미터의 Mixture-of-Experts(MoE) 모델로, 추론 능력에 초점을 맞춘 대규모 강화 학습을 통해 학습되었습니다. 향상된 추론 패턴 발견과 인간 선호도 정렬을 위한 두 단계의 RL, 추론/비추론 능력 생성을 위한 두 단계의 SFT가 포함되어 있으며, 수학, 코딩, 추론 작업에서 OpenAI-o1과 유사한 성능을 보입니다.
Gemini 2.5 Pro는 Google이 개발한 가장 진보된 AI 모델로, 심층 추론과 신중한 응답 생성을 위해 설계되었습니다. 주요 벤치마크에서 탁월한 논리력과 코딩 능력을 보여줍니다. 동적 웹 애플리케이션, 자율 코드 시스템, 코드 적응 구축에 최적화되어 있으며, 뛰어난 성능을 제공합니다. 내장된 멀티모달 기능과 확장된 컨텍스트 윈도우를 통해 대규모 데이터를 효율적으로 처리하고 다양한 정보원을 통합하여 복잡한 문제를 해결합니다.
DeepSeek-R1 | Gemini 2.5 Pro | |
---|---|---|
웹사이트
| ||
제공자
| ||
채팅
| ||
출시일
| ||
모달리티
| 텍스트 | 텍스트 이미지 음성 비디오 |
API 제공자
| DeepSeek, HuggingFace | Google AI Studio, Vertex AI, Gemini app |
지식 업데이트 종료일
| 알 수 없음 | - |
오픈 소스
| 예 | 아니오 |
입력 가격
| $0.55 100만 토큰당 | 정보 없음 |
출력 가격
| $2.19 100만 토큰당 | 정보 없음 |
MMLU
| 90.8% Pass@1 출처 | 정보 없음 |
MMLU-Pro
| 84% EM 출처 | 정보 없음 |
MMMU
| - | 81.7% 출처 |
HellaSwag
| - | 정보 없음 |
HumanEval
| - | 정보 없음 |
MATH
| - | 정보 없음 |
GPQA
| 71.5% Pass@1 출처 | 84.0% Diamond Science 출처 |
IFEval
| 83.3% Prompt Strict 출처 | 정보 없음 |
SimpleQA
| - | 52.9% |
AIME 2024 | - | 92.0% |
AIME 2025 | - | 86.7% |
Aider Polyglot
| - | 74.0% / 68.6% |
LiveCodeBench v5
| - | 70.4% |
Global MMLU (Lite)
| - | 89.8% |
MathVista
| - | - |
모바일 앱 | ||
VideoGameBench | ||
총점 | - | 0.48% |
Doom II | - | 0% |
Dream DX | - | 4.8% |
Awakening DX | - | 0% |
Civilization I | - | 0% |
Pokemon Crystal | - | 0% |
The Need for Speed | - | 0% |
The Incredible Machine | - | 0% |
Secret Game 1 | - | 0% |
Secret Game 2 | - | 0% |
Secret Game 3 | - | 0% |