DeepSeek-R1

DeepSeek-R1은 토큰당 370억 개의 활성 파라미터를 사용하는 6710억 파라미터의 Mixture-of-Experts(MoE) 모델로, 추론 능력에 초점을 맞춘 대규모 강화 학습을 통해 학습되었습니다. 향상된 추론 패턴 발견과 인간 선호도 정렬을 위한 두 단계의 RL, 추론/비추론 능력 생성을 위한 두 단계의 SFT가 포함되어 있으며, 수학, 코딩, 추론 작업에서 OpenAI-o1과 유사한 성능을 보입니다.

GPT-4.1

GPT-4.1은 2025년 4월 14일 OpenAI가 출시한 모델로, 최대 100만 개의 토큰 컨텍스트 윈도우와 요청당 최대 32,768개의 출력 토큰을 지원합니다. 이 모델은 SWE-Bench Verified 벤치마크에서 54.6%를 기록하며 뛰어난 코딩 성능을 입증했으며, 지시문 수행 정확도 측정 기준인 MultiChallenge에서 GPT-4o 대비 10.5% 향상된 결과를 보였습니다. 지식 컷오프는 2024년 6월입니다. 가격은 입력 토큰 100만 개당 $2.00, 출력 토큰 100만 개당 $8.00이며, 캐시된 입력에 대해 75%의 할인 요금이 적용되어 반복 쿼리에 매우 경제적입니다.

DeepSeek-R1GPT-4.1
웹사이트 ?
제공자 ?
채팅 ?
출시일 ?
모달리티 ?
텍스트 ?
텍스트 ?
이미지 ?
API 제공자 ?
DeepSeek, HuggingFace
OpenAI API
지식 업데이트 종료일 ?
알 수 없음
-
오픈 소스 ?
아니오
입력 가격 ?
$0.55 100만 토큰당
$2.00 100만 토큰당
출력 가격 ?
$2.19 100만 토큰당
$8.00 100만 토큰당
MMLU ?
90.8%
Pass@1
출처
90.2%
pass@1
출처
MMLU-Pro ?
84%
EM
출처
-
MMMU ?
-
74.8%
출처
HellaSwag ?
-
-
HumanEval ?
-
-
MATH ?
-
-
GPQA ?
71.5%
Pass@1
출처
66.3%
Diamond
출처
IFEval ?
83.3%
Prompt Strict
출처
-
SimpleQA ?
-
-
AIME 2024
-
48.1%
출처
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
87.3%
pass@1
출처
MathVista ?
-
-
모바일 앱

LLM 비교

댓글 추가


10%
당사 웹사이트는 쿠키를 사용합니다.

개인정보 및 쿠키 정책: 본 사이트는 쿠키를 사용합니다. 사이트를 계속 이용하면 쿠키 사용에 동의하는 것으로 간주됩니다.