GPT-4.1, wprowadzony przez OpenAI 14 kwietnia 2025 roku, oferuje okno kontekstu o rozmiarze 1 miliona tokenów i obsługuje do 32 768 tokenów na żądanie. Wyróżnia się doskonałą wydajnością w zadaniach programistycznych, osiągając 54,6% w benchmarku SWE-Bench Verified i wykazując 10,5% poprawę względem GPT-4o w MultiChallenge pod względem wykonywania instrukcji. Dane modelu są aktualne do czerwca 2024. Cena wynosi 2,00 $ za milion tokenów wejściowych i 8,00 $ za milion tokenów wyjściowych, z 75% zniżką dla buforowanych danych wejściowych, co czyni go wysoce opłacalnym dla powtarzających się zapytań.
W ciągu pięciu miesięcy od wydania Qwen2-VL deweloperzy zbudowali na jego podstawie nowe modele, dostarczając cennych opinii. Teraz Qwen2.5-VL wprowadza ulepszone możliwości, w tym precyzyjną analizę obrazów, tekstów i wykresów oraz lokalizację obiektów ze strukturalnymi wynikami JSON. Rozumie długie filmy, identyfikuje kluczowe wydarzenia i działa jako agent, współpracujący z narzędziami na komputerach i telefonach. Architektura modelu obejmuje dynamiczne przetwarzanie wideo i zoptymalizowany enkoder ViT dla lepszej szybkości i dokładności.
GPT-4.1 | Qwen2.5-VL-32B | |
---|---|---|
Dostawca | ||
Strona internetowa | ||
Data wydania | Apr 14, 2025 1 miesiąc ago | Mar 25, 2025 2 miesiące ago |
Modalności | tekst obrazy | tekst obrazy wideo |
Dostawcy API | OpenAI API | - |
Data ostatniej aktualizacji wiedzy | - | Nieznane |
Open Source | Nie | Tak (Źródło) |
Cena za wejście | $2.00 za milion tokenów | $0 |
Cena za wyjście | $8.00 za milion tokenów | $0 |
MMLU | 90.2% pass@1 Źródło | 78.4% Źródło |
MMLU Pro | - | 49.5% |
MMMU | 74.8% Źródło | 70% |
HellaSwag | - | Niedostępne |
HumanEval | - | Niedostępne |
MATH | - | 82.2% |
GPQA | 66.3% Diamond Źródło | 46.0% Diamond |
IFEval | - | Niedostępne |
Array | - | - |
AIME 2024 | 48.1% Źródło | - |
AIME 2025 | - | - |
Array | - | - |
Array | - | - |
Array | 87.3% pass@1 Źródło | - |
Array | - | - |
Aplikacja mobilna | - |
Compare AI. Test. Benchmarks. Chatboty mobilne, Sketch
Copyright © 2025 All Right Reserved.