GPT-4.1은 2025년 4월 14일 OpenAI가 출시한 모델로, 최대 100만 개의 토큰 컨텍스트 윈도우와 요청당 최대 32,768개의 출력 토큰을 지원합니다. 이 모델은 SWE-Bench Verified 벤치마크에서 54.6%를 기록하며 뛰어난 코딩 성능을 입증했으며, 지시문 수행 정확도 측정 기준인 MultiChallenge에서 GPT-4o 대비 10.5% 향상된 결과를 보였습니다. 지식 컷오프는 2024년 6월입니다. 가격은 입력 토큰 100만 개당 $2.00, 출력 토큰 100만 개당 $8.00이며, 캐시된 입력에 대해 75%의 할인 요금이 적용되어 반복 쿼리에 매우 경제적입니다.
Claude 3.7 Sonnet은 Anthropic이 개발한 가장 진보된 모델이며, 시장 최초의 하이브리드 추론 AI입니다. 일반 사고 모드와 단계별 추론을 제공하는 확장 사고 모드를 모두 지원합니다. 이 모델은 SWE-bench Verified 및 TAU-bench에서 최고 수준의 결과를 달성하며, 코딩과 프론트엔드 웹 개발에서 뛰어난 성능을 보입니다. Claude.ai, Anthropic API, Amazon Bedrock, Google Cloud의 Vertex AI를 통해 제공되며, AI 기반 문제 해결의 새로운 기준을 제시합니다.
GPT-4.1 | Claude 3.7 Sonnet | |
---|---|---|
웹사이트
| ||
제공자
| ||
채팅
| ||
출시일
| ||
모달리티
| 텍스트 이미지 | 텍스트 이미지 |
API 제공자
| OpenAI API | Claude.ai, Anthropic API, Amazon Bedrock, Google Cloud Vertex AI |
지식 업데이트 종료일
| - | - |
오픈 소스
| 아니오 | 아니오 |
입력 가격
| $2.00 100만 토큰당 | $3.00 100만 토큰당 |
출력 가격
| $8.00 100만 토큰당 | $15.00 100만 토큰당 |
MMLU
| 90.2% pass@1 출처 | 정보 없음 |
MMLU-Pro
| - | 정보 없음 |
MMMU
| 74.8% 출처 | 71.8% 출처 |
HellaSwag
| - | 정보 없음 |
HumanEval
| - | 정보 없음 |
MATH
| - | 82.2% 출처 |
GPQA
| 66.3% Diamond 출처 | 68% Diamond 출처 |
IFEval
| - | 90.8% 출처 |
SimpleQA
| - | - |
AIME 2024 | 48.1% 출처 | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| 87.3% pass@1 출처 | - |
MathVista
| - | - |
모바일 앱 | ||
VideoGameBench | ||
총점 | - | 0% |
Doom II | - | 0% |
Dream DX | - | 0% |
Awakening DX | - | 0% |
Civilization I | - | 0% |
Pokemon Crystal | - | 0% |
The Need for Speed | - | 0% |
The Incredible Machine | - | 0% |
Secret Game 1 | - | 0% |
Secret Game 2 | - | 0% |
Secret Game 3 | - | 0% |