Gemini 2.0 Pro, şimdiye kadarki en gelişmiş Google modelidir; olağanüstü kodlama performansı ve karmaşık komutlarla başa çıkma yeteneği sunar. Yerel araç entegrasyonu, görsel üretim ve konuşma sentezi gibi gelişmiş özelliklerle donatılmıştır. Gelişmiş akıl yürütme için tasarlanmış bu model, metin, görsel, video ve ses dahil olmak üzere çok modlu girdileri destekler. Google AI Studio ve Vertex AI üzerinden erişilebilen model, önceki sürümlere kıyasla önemli performans iyileştirmeleri sunarken yüksek verimliliğini korur.
GPT-4.1 Nano, OpenAI tarafından 14 Nisan 2025'te piyasaya sürülen en hızlı ve en uygun maliyetli modeldir. Düşük gecikmeli görevler için tasarlanmıştır; sınıflandırma, otomatik tamamlama ve hızlı çıkarım senaryolarında etkili bir şekilde çalışır. Kompakt mimarisine rağmen güçlü yeteneklere sahiptir. Boyutuna rağmen 1 milyon token bağlam penceresini destekler ve güçlü ölçüt sonuçları sunar; MMLU'da %80,1 ve GPQA'da %50,3 başarıya ulaşmıştır. Bilgi kesim tarihi Haziran 2024 olan GPT-4.1 Nano, milyon giriş token başına yalnızca 0,10$ ve milyon çıkış token başına 0,40$ fiyatlandırılarak olağanüstü değer sunmaktadır. Önbelleğe alınmış girdiler için %75 indirim uygulanarak yüksek hacimli, maliyet odaklı dağıtımlar için ideal hale getirilmiştir.
Gemini 2.0 Pro | GPT-4.1 Nano | |
---|---|---|
Web Sitesi
| ||
Sağlayıcı
| ||
Sohbet
| ||
Yayın Tarihi
| ||
Modallikler
| metin görseller ses video | metin görseller |
API Sağlayıcıları
| Google AI Studio, Vertex AI | OpenAI API |
Bilgi Kesim Tarihi
| 08.2024 | - |
Açık Kaynak
| Hayır | Hayır |
Fiyatlandırma Girdisi
| $0.10 milyon belirteç başına | $0.10 milyon belirteç başına |
Fiyatlandırma Çıktısı
| $0.40 milyon belirteç başına | $0.40 milyon belirteç başına |
MMLU
| Mevcut değil | 80.1% Kaynak |
MMLU-Pro
| 79.1% Kaynak | - |
MMMU
| 72.7% Kaynak | 55.4% Kaynak |
HellaSwag
| Mevcut değil | - |
HumanEval
| Mevcut değil | - |
MATH
| 91.8% Kaynak | - |
GPQA
| 64.7% Diamond Kaynak | 50.3% Diamond Kaynak |
IFEval
| Mevcut değil | 74.5% Kaynak |
SimpleQA
| - | - |
AIME 2024 | - | 29.4% Kaynak |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | 66.9% Kaynak |
MathVista
| - | 56.2% Image Reasoning Kaynak |
Mobil Uygulama |
Compare AI. Test. Benchmarks. Mobil Uygulamalar Sohbet Botları, Sketch
Copyright © 2025 All Right Reserved.