메타가 개발한 Llama 3.3 70B Instruct는 지시 기반 작업에 특화되어 미세 조정된 다국어 대형 언어 모델로, 대화형 응용에 최적화되어 있습니다. 최대 128,000 토큰의 컨텍스트 윈도우를 지원하며, 다양한 언어의 텍스트 생성 및 처리가 가능합니다. 2024년 12월 6일 출시되었으며, 공개 및 사유 챗봇 모델 다수를 능가하는 벤치마크 성능을 기록했습니다. Grouped-Query Attention(GQA)을 활용해 확장성을 높였으며, 공개 데이터 기반의 15조 개 이상 토큰으로 학습되었습니다. 모델 지식은 2023년 12월 기준입니다.
Command R+는 Cohere가 개발한 차세대 생성형 AI 모델로, 속도, 보안, 출력 품질이 중요한 엔터프라이즈급 성능을 위해 설계되었습니다. 최소한의 인프라로 효율적으로 실행되며, GPT-4o 및 DeepSeek-V3와 같은 최고 수준 모델보다 성능과 비용 면에서 뛰어납니다. 주요 모델보다 두 배 큰 256K 토큰 컨텍스트 윈도우를 통해 복잡한 다국어 및 에이전트 기반 작업을 처리하며, 단 2개의 GPU에서도 구동 가능할 정도로 접근성이 높습니다. 초당 최대 156토큰 처리 속도를 기록하며, GPT-4o보다 약 1.75배 빠른 처리 속도로 높은 정확도와 깊이를 유지하면서도 탁월한 효율성을 제공합니다.
Llama 3.3 70B Instruct | Command A | |
---|---|---|
웹사이트
| ||
제공자
| ||
채팅
| ||
출시일
| ||
모달리티
| 텍스트 | 텍스트 |
API 제공자
| Fireworks, Together, DeepInfra, Hyperbolic | Cohere, Hugging Face, Major cloud providers |
지식 업데이트 종료일
| 12.2024 | - |
오픈 소스
| 예 | 예 |
입력 가격
| $0.23 100만 토큰당 | $2.50 100만 토큰당 |
출력 가격
| $0.40 100만 토큰당 | $10.00 100만 토큰당 |
MMLU
| 86% 0-shot, CoT 출처 | 85.5% 출처 |
MMLU-Pro
| 68.9% 5-shot, CoT 출처 | 정보 없음 |
MMMU
| 정보 없음 | 정보 없음 |
HellaSwag
| 정보 없음 | 정보 없음 |
HumanEval
| 88.4% pass@1 출처 | 정보 없음 |
MATH
| 77% 0-shot, CoT 출처 | 80% 출처 |
GPQA
| 50.5% 0-shot, CoT 출처 | 50.8% 출처 |
IFEval
| 92.1% 출처 | 90.9% 출처 |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
모바일 앱 | - | - |