Claude 3.5 Haiku, entwickelt von Anthropic, bietet ein Kontextfenster von 200.000 Token. Die Preisgestaltung beträgt 1 $ pro Million Eingabe-Token und 5 $ pro Million Ausgabe-Token, mit möglichen Einsparungen von bis zu 90 % durch Prompt-Caching und 50 % über die Message Batches API. Dieses Modell, das am 4. November 2024 veröffentlicht wurde, zeichnet sich durch Codevervollständigung, interaktive Chatbots, Datenextraktion und -kennzeichnung sowie Echtzeit-Inhaltsmoderation aus.
Command R+ ist Coheres modernstes generatives KI-Modell, entwickelt für Unternehmensleistung, bei der Geschwindigkeit, Sicherheit und Ausgabequalität entscheidend sind. Es arbeitet effizient mit minimaler Infrastruktur und übertrifft Spitzenmodelle wie GPT-4o und DeepSeek-V3 in Fähigkeiten und Kosteneffizienz. Mit einem erweiterten Kontextfenster von 256K Token – doppelt so groß wie bei den meisten führenden Modellen – glänzt es bei komplexen mehrsprachigen und agentenbasierten Aufgaben, die für moderne Geschäftsabläufe entscheidend sind. Trotz seiner Leistung kann es mit nur zwei GPUs betrieben werden, was es hochgradig zugänglich macht. Mit einer rasanten Durchsatzrate von bis zu 156 Token pro Sekunde – etwa 1,75-mal schneller als GPT-4o – bietet Command R+ außergewöhnliche Effizienz ohne Kompromisse bei Genauigkeit oder Tiefe.
Claude 3.5 Haiku | Command A | |
---|---|---|
Anbieter | ||
Webseite | ||
Veröffentlichungsdatum | Nov 04, 2024 5 Monate ago | Mar 14, 2025 1 Monat ago |
Modalitäten | Text | Text |
API-Anbieter | Anthropic, AWS Bedrock, Vertex AI | Cohere, Hugging Face, Major cloud providers |
Datum des Wissensstandes | 01.04.2024 | - |
Open Source | Nein | Ja |
Preisgestaltung Eingabe | $0.80 pro Million Token | $2.50 pro Million Token |
Preisgestaltung Ausgabe | $4.00 | $10.00 pro Million Token |
MMLU | Nicht verfügbar | 85.5% Quelle |
MMLU Pro | 65% 0-shot CoT Quelle | Nicht verfügbar |
MMMU | Nicht verfügbar | Nicht verfügbar |
HellaSwag | Nicht verfügbar | Nicht verfügbar |
HumanEval | 88.1% 0-shot Quelle | Nicht verfügbar |
MATH | 69.4% 0-shot CoT Quelle | 80% Quelle |
GPQA | Nicht verfügbar | 50.8% Quelle |
IFEval | Nicht verfügbar | 90.9% Quelle |
Mobile Anwendung | - |
Compare AI. Test. Benchmarks. Mobile Chatbot-Apps, Sketch
Copyright © 2025 All Right Reserved.