GPT-4.1 Nano

GPT-4.1 Nano는 OpenAI가 2025년 4월 14일에 출시한 가장 빠르고 저렴한 모델입니다. 분류, 자동완성, 빠른 추론 작업과 같은 저지연 작업을 위해 설계되었으며, 컴팩트한 아키텍처와 강력한 기능을 결합했습니다. 모델 크기에도 불구하고 100만 개 토큰의 컨텍스트 윈도우를 지원하며, MMLU 80.1%, GPQA 50.3%의 벤치마크 성능을 기록했습니다. 지식 컷오프는 2024년 6월이며, 입력 토큰 100만 개당 $0.10, 출력 토큰 100만 개당 $0.40로 매우 저렴하며, 캐시된 입력에는 75%의 할인이 적용되어 대규모 및 비용 민감한 배포 환경에 이상적입니다.

Llama 3.1 Nemotron 70B Instruct

NVIDIA의 Llama 3.1 Nemotron 70B는 정확하고 유익한 응답을 제공하도록 최적화된 강력한 언어 모델입니다. Llama 3.1 70B 아키텍처를 기반으로 하고 인간 피드백에 의한 강화 학습(RLHF)으로 향상되어 자동 정렬 벤치마크에서 최고 성능을 달성합니다. 높은 정밀도가 요구되는 응답 생성 애플리케이션에 적합하며, 다양한 분야의 사용자 질문에 잘 대응합니다.

GPT-4.1 NanoLlama 3.1 Nemotron 70B Instruct
웹사이트 ?
제공자 ?
채팅 ?
출시일 ?
모달리티 ?
텍스트 ?
이미지 ?
텍스트 ?
API 제공자 ?
OpenAI API
OpenRouter
지식 업데이트 종료일 ?
-
-
오픈 소스 ?
아니오
입력 가격 ?
$0.10 100만 토큰당
$0.35 100만 토큰당
출력 가격 ?
$0.40 100만 토큰당
$0.40 100만 토큰당
MMLU ?
80.1%
출처
85%
5-shot
출처
MMLU-Pro ?
-
정보 없음
MMMU ?
55.4%
출처
정보 없음
HellaSwag ?
-
정보 없음
HumanEval ?
-
75%
출처
MATH ?
-
71%
출처
GPQA ?
50.3%
Diamond
출처
정보 없음
IFEval ?
74.5%
출처
정보 없음
SimpleQA ?
-
-
AIME 2024
29.4%
출처
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
66.9%
출처
-
MathVista ?
56.2%
Image Reasoning
출처
-
모바일 앱
-

LLM 비교

댓글 추가


10%
당사 웹사이트는 쿠키를 사용합니다.

개인정보 및 쿠키 정책: 본 사이트는 쿠키를 사용합니다. 사이트를 계속 이용하면 쿠키 사용에 동의하는 것으로 간주됩니다.