NVIDIA의 Llama 3.1 Nemotron 70B는 정확하고 유익한 응답을 제공하도록 최적화된 강력한 언어 모델입니다. Llama 3.1 70B 아키텍처를 기반으로 하고 인간 피드백에 의한 강화 학습(RLHF)으로 향상되어 자동 정렬 벤치마크에서 최고 성능을 달성합니다. 높은 정밀도가 요구되는 응답 생성 애플리케이션에 적합하며, 다양한 분야의 사용자 질문에 잘 대응합니다.
Mistral에서 개발한 Mistral Large 2는 128K 토큰 컨텍스트 윈도우를 제공하며, 입력 토큰 백만 개당 $3.00, 출력 토큰 백만 개당 $9.00의 가격으로 제공됩니다. 2024년 7월 24일 출시되었으며, 5-shot 평가에서 MMLU 벤치마크 점수 84.0을 기록하며 다양한 작업에서 뛰어난 성능을 보였습니다.
Llama 3.1 Nemotron 70B Instruct | Mistral Large 2 | |
---|---|---|
웹사이트
| ||
제공자
| ||
채팅
| ||
출시일
| ||
모달리티
| 텍스트 | 텍스트 |
API 제공자
| OpenRouter | Azure AI, AWS Bedrock, Google AI Studio, Vertex AI, Snowflake Cortex |
지식 업데이트 종료일
| - | 알 수 없음 |
오픈 소스
| 예 | 예 |
입력 가격
| $0.35 100만 토큰당 | $3.00 100만 토큰당 |
출력 가격
| $0.40 100만 토큰당 | $9.00 100만 토큰당 |
MMLU
| 85% 5-shot 출처 | 84% 5-shot 출처 |
MMLU-Pro
| 정보 없음 | 50.69% 출처 |
MMMU
| 정보 없음 | 정보 없음 |
HellaSwag
| 정보 없음 | 정보 없음 |
HumanEval
| 75% 출처 | 정보 없음 |
MATH
| 71% 출처 | 1.13% 출처 |
GPQA
| 정보 없음 | 24.94% |
IFEval
| 정보 없음 | 84.01% |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
모바일 앱 | - | - |