Gemini 2.5 Pro, Google'un en gelişmiş yapay zeka modeli olup, derin akıl yürütme ve düşünceli yanıt üretimi için tasarlanmıştır. Önemli ölçütlerde üstün performans göstererek olağanüstü mantık ve kodlama yetkinliği sergiler. Dinamik web uygulamaları, otonom kod sistemleri ve kod adaptasyonu için optimize edilmiştir ve yüksek seviyede performans sunar. Dahili çok modlu yetenekleri ve genişletilmiş bağlam penceresi ile büyük veri kümelerini verimli şekilde işler ve çeşitli bilgi kaynaklarını entegre ederek karmaşık zorlukları ele alır.
GPT-4.1 Nano, OpenAI tarafından 14 Nisan 2025'te piyasaya sürülen en hızlı ve en uygun maliyetli modeldir. Düşük gecikmeli görevler için tasarlanmıştır; sınıflandırma, otomatik tamamlama ve hızlı çıkarım senaryolarında etkili bir şekilde çalışır. Kompakt mimarisine rağmen güçlü yeteneklere sahiptir. Boyutuna rağmen 1 milyon token bağlam penceresini destekler ve güçlü ölçüt sonuçları sunar; MMLU'da %80,1 ve GPQA'da %50,3 başarıya ulaşmıştır. Bilgi kesim tarihi Haziran 2024 olan GPT-4.1 Nano, milyon giriş token başına yalnızca 0,10$ ve milyon çıkış token başına 0,40$ fiyatlandırılarak olağanüstü değer sunmaktadır. Önbelleğe alınmış girdiler için %75 indirim uygulanarak yüksek hacimli, maliyet odaklı dağıtımlar için ideal hale getirilmiştir.
Gemini 2.5 Pro | GPT-4.1 Nano | |
---|---|---|
Web Sitesi
| ||
Sağlayıcı
| ||
Sohbet
| ||
Yayın Tarihi
| ||
Modallikler
| metin görseller ses video | metin görseller |
API Sağlayıcıları
| Google AI Studio, Vertex AI, Gemini app | OpenAI API |
Bilgi Kesim Tarihi
| - | - |
Açık Kaynak
| Hayır | Hayır |
Fiyatlandırma Girdisi
| Mevcut değil | $0.10 milyon belirteç başına |
Fiyatlandırma Çıktısı
| Mevcut değil | $0.40 milyon belirteç başına |
MMLU
| Mevcut değil | 80.1% Kaynak |
MMLU-Pro
| Mevcut değil | - |
MMMU
| 81.7% Kaynak | 55.4% Kaynak |
HellaSwag
| Mevcut değil | - |
HumanEval
| Mevcut değil | - |
MATH
| Mevcut değil | - |
GPQA
| 84.0% Diamond Science Kaynak | 50.3% Diamond Kaynak |
IFEval
| Mevcut değil | 74.5% Kaynak |
SimpleQA
| 52.9% | - |
AIME 2024 | 92.0% | 29.4% Kaynak |
AIME 2025 | 86.7% | - |
Aider Polyglot
| 74.0% / 68.6% | - |
LiveCodeBench v5
| 70.4% | - |
Global MMLU (Lite)
| 89.8% | 66.9% Kaynak |
MathVista
| - | 56.2% Image Reasoning Kaynak |
Mobil Uygulama | ||
VideoGameBench | ||
Toplam puan | 0.48% | - |
Doom II | 0% | - |
Dream DX | 4.8% | - |
Awakening DX | 0% | - |
Civilization I | 0% | - |
Pokemon Crystal | 0% | - |
The Need for Speed | 0% | - |
The Incredible Machine | 0% | - |
Secret Game 1 | 0% | - |
Secret Game 2 | 0% | - |
Secret Game 3 | 0% | - |
Compare AI. Test. Benchmarks. Mobil Uygulamalar Sohbet Botları, Sketch
Copyright © 2025 All Right Reserved.