OpenAI o4-mini는 o 시리즈에서 새롭게 출시된 경량 모델로, 텍스트 및 비주얼 작업 전반에서 효율적인 추론 능력을 제공합니다. 속도와 성능에 최적화된 이 모델은 코드 생성과 이미지 기반 이해에 강점을 가지며, 지연 시간과 추론 깊이 사이의 균형을 유지합니다. 최대 20만 개의 토큰 컨텍스트 윈도우와 최대 10만 개 출력 토큰을 지원하여 장시간 대용량 상호작용에도 적합합니다. 텍스트와 이미지 입력 모두를 처리하며 고급 추론 기능을 갖춘 텍스트 출력을 생성합니다. 소형 아키텍처와 다목적 성능 덕분에, 빠르고 비용 효율적인 지능이 요구되는 다양한 실제 응용 분야에 적합합니다.
메타가 개발한 Llama 3.3 70B Instruct는 지시 기반 작업에 특화되어 미세 조정된 다국어 대형 언어 모델로, 대화형 응용에 최적화되어 있습니다. 최대 128,000 토큰의 컨텍스트 윈도우를 지원하며, 다양한 언어의 텍스트 생성 및 처리가 가능합니다. 2024년 12월 6일 출시되었으며, 공개 및 사유 챗봇 모델 다수를 능가하는 벤치마크 성능을 기록했습니다. Grouped-Query Attention(GQA)을 활용해 확장성을 높였으며, 공개 데이터 기반의 15조 개 이상 토큰으로 학습되었습니다. 모델 지식은 2023년 12월 기준입니다.
o4-mini | Llama 3.3 70B Instruct | |
---|---|---|
웹사이트
| ||
제공자
| ||
채팅
| ||
출시일
| ||
모달리티
| 텍스트 이미지 | 텍스트 |
API 제공자
| OpenAI API | Fireworks, Together, DeepInfra, Hyperbolic |
지식 업데이트 종료일
| - | 12.2024 |
오픈 소스
| 아니오 | 예 |
입력 가격
| $1.10 100만 토큰당 | $0.23 100만 토큰당 |
출력 가격
| $4.40 100만 토큰당 | $0.40 100만 토큰당 |
MMLU
| fort | 86% 0-shot, CoT 출처 |
MMLU-Pro
| - | 68.9% 5-shot, CoT 출처 |
MMMU
| 81.6% 출처 | 정보 없음 |
HellaSwag
| - | 정보 없음 |
HumanEval
| 14.28% 출처 | 88.4% pass@1 출처 |
MATH
| - | 77% 0-shot, CoT 출처 |
GPQA
| 81.4% 출처 | 50.5% 0-shot, CoT 출처 |
IFEval
| - | 92.1% 출처 |
SimpleQA
| - | - |
AIME 2024 | 93.4% 출처 | - |
AIME 2025 | 92.7% 출처 | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
모바일 앱 | - |