Command R+는 Cohere가 개발한 차세대 생성형 AI 모델로, 속도, 보안, 출력 품질이 중요한 엔터프라이즈급 성능을 위해 설계되었습니다. 최소한의 인프라로 효율적으로 실행되며, GPT-4o 및 DeepSeek-V3와 같은 최고 수준 모델보다 성능과 비용 면에서 뛰어납니다. 주요 모델보다 두 배 큰 256K 토큰 컨텍스트 윈도우를 통해 복잡한 다국어 및 에이전트 기반 작업을 처리하며, 단 2개의 GPU에서도 구동 가능할 정도로 접근성이 높습니다. 초당 최대 156토큰 처리 속도를 기록하며, GPT-4o보다 약 1.75배 빠른 처리 속도로 높은 정확도와 깊이를 유지하면서도 탁월한 효율성을 제공합니다.
Mistral에서 개발한 Mistral Large 2는 128K 토큰 컨텍스트 윈도우를 제공하며, 입력 토큰 백만 개당 $3.00, 출력 토큰 백만 개당 $9.00의 가격으로 제공됩니다. 2024년 7월 24일 출시되었으며, 5-shot 평가에서 MMLU 벤치마크 점수 84.0을 기록하며 다양한 작업에서 뛰어난 성능을 보였습니다.
Command A | Mistral Large 2 | |
---|---|---|
웹사이트
| ||
제공자
| ||
채팅
| ||
출시일
| ||
모달리티
| 텍스트 | 텍스트 |
API 제공자
| Cohere, Hugging Face, Major cloud providers | Azure AI, AWS Bedrock, Google AI Studio, Vertex AI, Snowflake Cortex |
지식 업데이트 종료일
| - | 알 수 없음 |
오픈 소스
| 예 | 예 |
입력 가격
| $2.50 100만 토큰당 | $3.00 100만 토큰당 |
출력 가격
| $10.00 100만 토큰당 | $9.00 100만 토큰당 |
MMLU
| 85.5% 출처 | 84% 5-shot 출처 |
MMLU-Pro
| 정보 없음 | 50.69% 출처 |
MMMU
| 정보 없음 | 정보 없음 |
HellaSwag
| 정보 없음 | 정보 없음 |
HumanEval
| 정보 없음 | 정보 없음 |
MATH
| 80% 출처 | 1.13% 출처 |
GPQA
| 50.8% 출처 | 24.94% |
IFEval
| 90.9% 출처 | 84.01% |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
모바일 앱 | - | - |