Gemini 2.5 Pro, Google'un en gelişmiş yapay zeka modeli olup, derin akıl yürütme ve düşünceli yanıt üretimi için tasarlanmıştır. Önemli ölçütlerde üstün performans göstererek olağanüstü mantık ve kodlama yetkinliği sergiler. Dinamik web uygulamaları, otonom kod sistemleri ve kod adaptasyonu için optimize edilmiştir ve yüksek seviyede performans sunar. Dahili çok modlu yetenekleri ve genişletilmiş bağlam penceresi ile büyük veri kümelerini verimli şekilde işler ve çeşitli bilgi kaynaklarını entegre ederek karmaşık zorlukları ele alır.
Command R+, Cohere’in en ileri düzey üretken yapay zeka modeli olup, hız, güvenlik ve çıktı kalitesinin kritik olduğu kurumsal düzeyde performans için tasarlanmıştır. Minimum altyapıyla verimli çalışacak şekilde geliştirilmiş olup, hem yetenek hem de maliyet açısından GPT-4o ve DeepSeek-V3 gibi üst düzey modelleri geride bırakmaktadır. 256K token bağlam penceresi sunarak çoğu lider modelin iki katı genişlikte bir bağlam sağlamakta ve modern iş operasyonları için hayati öneme sahip karmaşık çok dilli ve ajan tabanlı görevlerde üstün performans sergilemektedir. Gücüne rağmen yalnızca iki GPU üzerinde çalıştırılabilir, bu da onu oldukça erişilebilir kılmaktadır. 156 token/saniye gibi son derece hızlı veri işleme kapasitesine sahiptir—GPT-4o’dan yaklaşık 1,75 kat daha hızlı—Command R+, doğruluk veya derinlikten ödün vermeden olağanüstü verimlilik sunmaktadır.
Gemini 2.5 Pro | Command A | |
---|---|---|
Web Sitesi
| ||
Sağlayıcı
| ||
Sohbet
| ||
Yayın Tarihi
| ||
Modallikler
| metin görseller ses video | metin |
API Sağlayıcıları
| Google AI Studio, Vertex AI, Gemini app | Cohere, Hugging Face, Major cloud providers |
Bilgi Kesim Tarihi
| - | - |
Açık Kaynak
| Hayır | Evet |
Fiyatlandırma Girdisi
| Mevcut değil | $2.50 milyon belirteç başına |
Fiyatlandırma Çıktısı
| Mevcut değil | $10.00 milyon belirteç başına |
MMLU
| Mevcut değil | 85.5% Kaynak |
MMLU-Pro
| Mevcut değil | Mevcut değil |
MMMU
| 81.7% Kaynak | Mevcut değil |
HellaSwag
| Mevcut değil | Mevcut değil |
HumanEval
| Mevcut değil | Mevcut değil |
MATH
| Mevcut değil | 80% Kaynak |
GPQA
| 84.0% Diamond Science Kaynak | 50.8% Kaynak |
IFEval
| Mevcut değil | 90.9% Kaynak |
SimpleQA
| 52.9% | - |
AIME 2024 | 92.0% | - |
AIME 2025 | 86.7% | - |
Aider Polyglot
| 74.0% / 68.6% | - |
LiveCodeBench v5
| 70.4% | - |
Global MMLU (Lite)
| 89.8% | - |
MathVista
| - | - |
Mobil Uygulama | - | |
VideoGameBench | ||
Toplam puan | 0.48% | - |
Doom II | 0% | - |
Dream DX | 4.8% | - |
Awakening DX | 0% | - |
Civilization I | 0% | - |
Pokemon Crystal | 0% | - |
The Need for Speed | 0% | - |
The Incredible Machine | 0% | - |
Secret Game 1 | 0% | - |
Secret Game 2 | 0% | - |
Secret Game 3 | 0% | - |
Compare AI. Test. Benchmarks. Mobil Uygulamalar Sohbet Botları, Sketch
Copyright © 2025 All Right Reserved.