GPT-4.1 Nano는 OpenAI가 2025년 4월 14일에 출시한 가장 빠르고 저렴한 모델입니다. 분류, 자동완성, 빠른 추론 작업과 같은 저지연 작업을 위해 설계되었으며, 컴팩트한 아키텍처와 강력한 기능을 결합했습니다. 모델 크기에도 불구하고 100만 개 토큰의 컨텍스트 윈도우를 지원하며, MMLU 80.1%, GPQA 50.3%의 벤치마크 성능을 기록했습니다. 지식 컷오프는 2024년 6월이며, 입력 토큰 100만 개당 $0.10, 출력 토큰 100만 개당 $0.40로 매우 저렴하며, 캐시된 입력에는 75%의 할인이 적용되어 대규모 및 비용 민감한 배포 환경에 이상적입니다.
NVIDIA의 Llama 3.1 Nemotron 70B는 정확하고 유익한 응답을 제공하도록 최적화된 강력한 언어 모델입니다. Llama 3.1 70B 아키텍처를 기반으로 하고 인간 피드백에 의한 강화 학습(RLHF)으로 향상되어 자동 정렬 벤치마크에서 최고 성능을 달성합니다. 높은 정밀도가 요구되는 응답 생성 애플리케이션에 적합하며, 다양한 분야의 사용자 질문에 잘 대응합니다.
GPT-4.1 Nano | Llama 3.1 Nemotron 70B Instruct | |
---|---|---|
웹사이트
| ||
제공자
| ||
채팅
| ||
출시일
| ||
모달리티
| 텍스트 이미지 | 텍스트 |
API 제공자
| OpenAI API | OpenRouter |
지식 업데이트 종료일
| - | - |
오픈 소스
| 아니오 | 예 |
입력 가격
| $0.10 100만 토큰당 | $0.35 100만 토큰당 |
출력 가격
| $0.40 100만 토큰당 | $0.40 100만 토큰당 |
MMLU
| 80.1% 출처 | 85% 5-shot 출처 |
MMLU-Pro
| - | 정보 없음 |
MMMU
| 55.4% 출처 | 정보 없음 |
HellaSwag
| - | 정보 없음 |
HumanEval
| - | 75% 출처 |
MATH
| - | 71% 출처 |
GPQA
| 50.3% Diamond 출처 | 정보 없음 |
IFEval
| 74.5% 출처 | 정보 없음 |
SimpleQA
| - | - |
AIME 2024 | 29.4% 출처 | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| 66.9% 출처 | - |
MathVista
| 56.2% Image Reasoning 출처 | - |
모바일 앱 | - |