GPT-4.1

GPT-4.1은 2025년 4월 14일 OpenAI가 출시한 모델로, 최대 100만 개의 토큰 컨텍스트 윈도우와 요청당 최대 32,768개의 출력 토큰을 지원합니다. 이 모델은 SWE-Bench Verified 벤치마크에서 54.6%를 기록하며 뛰어난 코딩 성능을 입증했으며, 지시문 수행 정확도 측정 기준인 MultiChallenge에서 GPT-4o 대비 10.5% 향상된 결과를 보였습니다. 지식 컷오프는 2024년 6월입니다. 가격은 입력 토큰 100만 개당 $2.00, 출력 토큰 100만 개당 $8.00이며, 캐시된 입력에 대해 75%의 할인 요금이 적용되어 반복 쿼리에 매우 경제적입니다.

Claude 3.7 Sonnet

Claude 3.7 Sonnet은 Anthropic이 개발한 가장 진보된 모델이며, 시장 최초의 하이브리드 추론 AI입니다. 일반 사고 모드와 단계별 추론을 제공하는 확장 사고 모드를 모두 지원합니다. 이 모델은 SWE-bench Verified 및 TAU-bench에서 최고 수준의 결과를 달성하며, 코딩과 프론트엔드 웹 개발에서 뛰어난 성능을 보입니다. Claude.ai, Anthropic API, Amazon Bedrock, Google Cloud의 Vertex AI를 통해 제공되며, AI 기반 문제 해결의 새로운 기준을 제시합니다.

GPT-4.1Claude 3.7 Sonnet
웹사이트 ?
제공자 ?
채팅 ?
출시일 ?
모달리티 ?
텍스트 ?
이미지 ?
텍스트 ?
이미지 ?
API 제공자 ?
OpenAI API
Claude.ai, Anthropic API, Amazon Bedrock, Google Cloud Vertex AI
지식 업데이트 종료일 ?
-
-
오픈 소스 ?
아니오
아니오
입력 가격 ?
$2.00 100만 토큰당
$3.00 100만 토큰당
출력 가격 ?
$8.00 100만 토큰당
$15.00 100만 토큰당
MMLU ?
90.2%
pass@1
출처
정보 없음
MMLU-Pro ?
-
정보 없음
MMMU ?
74.8%
출처
71.8%
출처
HellaSwag ?
-
정보 없음
HumanEval ?
-
정보 없음
MATH ?
-
82.2%
출처
GPQA ?
66.3%
Diamond
출처
68%
Diamond
출처
IFEval ?
-
90.8%
출처
SimpleQA ?
-
-
AIME 2024
48.1%
출처
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
87.3%
pass@1
출처
-
MathVista ?
-
-
모바일 앱

VideoGameBench ?

총점
-
0%
Doom II
-
0%
Dream DX
-
0%
Awakening DX
-
0%
Civilization I
-
0%
Pokemon Crystal
-
0%
The Need for Speed
-
0%
The Incredible Machine
-
0%
Secret Game 1
-
0%
Secret Game 2
-
0%
Secret Game 3
-
0%

LLM 비교

댓글 추가


10%
당사 웹사이트는 쿠키를 사용합니다.

개인정보 및 쿠키 정책: 본 사이트는 쿠키를 사용합니다. 사이트를 계속 이용하면 쿠키 사용에 동의하는 것으로 간주됩니다.