Claude 3.5 Haiku

Claude 3.5 Haiku, entwickelt von Anthropic, bietet ein Kontextfenster von 200.000 Token. Die Preisgestaltung beträgt 1 $ pro Million Eingabe-Token und 5 $ pro Million Ausgabe-Token, mit möglichen Einsparungen von bis zu 90 % durch Prompt-Caching und 50 % über die Message Batches API. Dieses Modell, das am 4. November 2024 veröffentlicht wurde, zeichnet sich durch Codevervollständigung, interaktive Chatbots, Datenextraktion und -kennzeichnung sowie Echtzeit-Inhaltsmoderation aus.

Llama 3.1 Nemotron 70B Instruct

NVIDIAs Llama 3.1 Nemotron 70B ist ein leistungsstarkes Sprachmodell, das für die Bereitstellung präziser und informativer Antworten optimiert ist. Basierend auf der Llama 3.1 70B-Architektur und durch Reinforcement Learning from Human Feedback (RLHF) verbessert, erreicht es Spitzenleistungen in Benchmarks zur automatischen Ausrichtung. Entwickelt für Anwendungen, die hohe Präzision bei der Antwortgenerierung und Hilfsbereitschaft erfordern, eignet sich dieses Modell ideal für eine Vielzahl von Benutzeranfragen in verschiedenen Bereichen.

Claude 3.5 HaikuLlama 3.1 Nemotron 70B Instruct
Webseite ?
Anbieter ?
Chat ?
Veröffentlichungsdatum ?
Modalitäten ?
Text ?
Text ?
API-Anbieter ?
Anthropic, AWS Bedrock, Vertex AI
OpenRouter
Datum des Wissensstandes ?
01.04.2024
-
Open Source ?
Nein
Ja
Preisgestaltung Eingabe ?
$0.80 pro Million Token
$0.35 pro Million Token
Preisgestaltung Ausgabe ?
$4.00
$0.40 pro Million Token
MMLU ?
Nicht verfügbar
85%
5-shot
Quelle
MMLU-Pro ?
65%
0-shot CoT
Quelle
Nicht verfügbar
MMMU ?
Nicht verfügbar
Nicht verfügbar
HellaSwag ?
Nicht verfügbar
Nicht verfügbar
HumanEval ?
88.1%
0-shot
Quelle
75%
Quelle
MATH ?
69.4%
0-shot CoT
Quelle
71%
Quelle
GPQA ?
Nicht verfügbar
Nicht verfügbar
IFEval ?
Nicht verfügbar
Nicht verfügbar
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Mobile Anwendung
-

LLMs vergleichen

Kommentar hinzufügen


10%
Unsere Website verwendet Cookies.

Datenschutz und Cookie-Richtlinie: Diese Website verwendet Cookies. Wenn Sie die Seite weiter nutzen, stimmen Sie deren Verwendung zu.