Během pěti měsíců od vydání Qwen2-VL vývojáři vytvořili nové modely na jeho základě a poskytli cennou zpětnou vazbu. Nyní Qwen2.5-VL přináší vylepšené schopnosti včetně přesné analýzy obrázků, textů a grafů, stejně jako lokalizaci objektů se strukturovanými JSON výstupy. Rozumí dlouhým videím, identifikuje klíčové události a funguje jako agent interagující s nástroji na počítačích a telefonech. Architektura modelu zahrnuje dynamické zpracování videa a optimalizovaný ViT enkodér pro vyšší rychlost a přesnost.
Command R+ je špičkový generativní model AI od společnosti Cohere, navržený pro podnikový výkon, kde jsou klíčové rychlost, bezpečnost a kvalita výstupu. Díky efektivnímu provozu s minimální infrastrukturou překonává špičkové modely jako GPT-4o a DeepSeek-V3 jak ve schopnostech, tak v cenové výhodnosti. S rozšířeným kontextovým oknem 256K tokenů – dvakrát větším než většina vedoucích modelů – vyniká u složitých vícejazyčných a agentních úloh klíčových pro moderní podnikání. Navzdory výkonu jej lze nasadit na pouhých dvou GPU, což zvyšuje dostupnost. S rychlostí až 156 tokenů za sekundu – asi 1,75× rychlejší než GPT-4o – poskytuje Command R+ výjimečnou efektivitu bez kompromisů v přesnosti nebo hloubce.
Qwen2.5-VL-32B | Command A | |
---|---|---|
Poskytovatel | ||
Webová stránka | ||
Datum vydání | Mar 25, 2025 4 týdny ago | Mar 14, 2025 1 měsíc ago |
Modality | text obrázky video | text |
Poskytovatelé API | - | Cohere, Hugging Face, Major cloud providers |
Datum uzávěrky znalostí | Neznámý | - |
Open Source | Ano (Zdroj) | Ano |
Cena za vstup | $0 | $2.50 na milion tokenů |
Cena za výstup | $0 | $10.00 na milion tokenů |
MMLU | 78.4% Zdroj | 85.5% Zdroj |
MMLU Pro | 49.5% | Není k dispozici |
MMMU | 70% | Není k dispozici |
HellaSwag | Není k dispozici | Není k dispozici |
HumanEval | Není k dispozici | Není k dispozici |
MATH | 82.2% | 80% Zdroj |
GPQA | 46.0% Diamond | 50.8% Zdroj |
IFEval | Není k dispozici | 90.9% Zdroj |
Mobilní aplikace | - | - |
Compare AI. Test. Benchmarks. Mobilní chatboty, Sketch
Copyright © 2025 All Right Reserved.