NVIDIA의 Llama 3.1 Nemotron 70B는 정확하고 유익한 응답을 제공하도록 최적화된 강력한 언어 모델입니다. Llama 3.1 70B 아키텍처를 기반으로 하고 인간 피드백에 의한 강화 학습(RLHF)으로 향상되어 자동 정렬 벤치마크에서 최고 성능을 달성합니다. 높은 정밀도가 요구되는 응답 생성 애플리케이션에 적합하며, 다양한 분야의 사용자 질문에 잘 대응합니다.
Command R+는 Cohere가 개발한 차세대 생성형 AI 모델로, 속도, 보안, 출력 품질이 중요한 엔터프라이즈급 성능을 위해 설계되었습니다. 최소한의 인프라로 효율적으로 실행되며, GPT-4o 및 DeepSeek-V3와 같은 최고 수준 모델보다 성능과 비용 면에서 뛰어납니다. 주요 모델보다 두 배 큰 256K 토큰 컨텍스트 윈도우를 통해 복잡한 다국어 및 에이전트 기반 작업을 처리하며, 단 2개의 GPU에서도 구동 가능할 정도로 접근성이 높습니다. 초당 최대 156토큰 처리 속도를 기록하며, GPT-4o보다 약 1.75배 빠른 처리 속도로 높은 정확도와 깊이를 유지하면서도 탁월한 효율성을 제공합니다.
Llama 3.1 Nemotron 70B Instruct | Command A | |
---|---|---|
웹사이트
| ||
제공자
| ||
채팅
| ||
출시일
| ||
모달리티
| 텍스트 | 텍스트 |
API 제공자
| OpenRouter | Cohere, Hugging Face, Major cloud providers |
지식 업데이트 종료일
| - | - |
오픈 소스
| 예 | 예 |
입력 가격
| $0.35 100만 토큰당 | $2.50 100만 토큰당 |
출력 가격
| $0.40 100만 토큰당 | $10.00 100만 토큰당 |
MMLU
| 85% 5-shot 출처 | 85.5% 출처 |
MMLU-Pro
| 정보 없음 | 정보 없음 |
MMMU
| 정보 없음 | 정보 없음 |
HellaSwag
| 정보 없음 | 정보 없음 |
HumanEval
| 75% 출처 | 정보 없음 |
MATH
| 71% 출처 | 80% 출처 |
GPQA
| 정보 없음 | 50.8% 출처 |
IFEval
| 정보 없음 | 90.9% 출처 |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
모바일 앱 | - | - |