메타가 개발한 Llama 3.3 70B Instruct는 지시 기반 작업에 특화되어 미세 조정된 다국어 대형 언어 모델로, 대화형 응용에 최적화되어 있습니다. 최대 128,000 토큰의 컨텍스트 윈도우를 지원하며, 다양한 언어의 텍스트 생성 및 처리가 가능합니다. 2024년 12월 6일 출시되었으며, 공개 및 사유 챗봇 모델 다수를 능가하는 벤치마크 성능을 기록했습니다. Grouped-Query Attention(GQA)을 활용해 확장성을 높였으며, 공개 데이터 기반의 15조 개 이상 토큰으로 학습되었습니다. 모델 지식은 2023년 12월 기준입니다.
Mistral에서 개발한 Mistral Large 2는 128K 토큰 컨텍스트 윈도우를 제공하며, 입력 토큰 백만 개당 $3.00, 출력 토큰 백만 개당 $9.00의 가격으로 제공됩니다. 2024년 7월 24일 출시되었으며, 5-shot 평가에서 MMLU 벤치마크 점수 84.0을 기록하며 다양한 작업에서 뛰어난 성능을 보였습니다.
Llama 3.3 70B Instruct | Mistral Large 2 | |
---|---|---|
웹사이트
| ||
제공자
| ||
채팅
| ||
출시일
| ||
모달리티
| 텍스트 | 텍스트 |
API 제공자
| Fireworks, Together, DeepInfra, Hyperbolic | Azure AI, AWS Bedrock, Google AI Studio, Vertex AI, Snowflake Cortex |
지식 업데이트 종료일
| 12.2024 | 알 수 없음 |
오픈 소스
| 예 | 예 |
입력 가격
| $0.23 100만 토큰당 | $3.00 100만 토큰당 |
출력 가격
| $0.40 100만 토큰당 | $9.00 100만 토큰당 |
MMLU
| 86% 0-shot, CoT 출처 | 84% 5-shot 출처 |
MMLU-Pro
| 68.9% 5-shot, CoT 출처 | 50.69% 출처 |
MMMU
| 정보 없음 | 정보 없음 |
HellaSwag
| 정보 없음 | 정보 없음 |
HumanEval
| 88.4% pass@1 출처 | 정보 없음 |
MATH
| 77% 0-shot, CoT 출처 | 1.13% 출처 |
GPQA
| 50.5% 0-shot, CoT 출처 | 24.94% |
IFEval
| 92.1% 출처 | 84.01% |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
모바일 앱 | - | - |