Gemini 2.5 Pro

Gemini 2.5 Pro to najbardziej zaawansowany model AI Google, zaprojektowany do głębokiego rozumowania i przemyślanego generowania odpowiedzi. Przewyższa kluczowe benchmarki, wykazując wyjątkową logikę i biegłość w kodowaniu. Zoptymalizowany do budowania dynamicznych aplikacji internetowych, autonomicznych systemów kodu i adaptacji kodu, zapewnia wysoką wydajność. Dzięki wbudowanym możliwościom multimodalnym i rozszerzonemu oknu kontekstu efektywnie przetwarza duże zbiory danych i integruje różne źródła informacji do rozwiązywania złożonych wyzwań.

Llama 3.3 70B Instruct

„Llama 3.3 70B Instruct“, stworzony przez Meta, to wielojęzyczny duży model językowy, specjalnie dostrojony do zadań opartych na instrukcjach i zoptymalizowany pod kątem aplikacji konwersacyjnych. Jest w stanie przetwarzać i generować tekst w wielu językach, a jego okno kontekstowe obsługuje do 128 000 tokenów. Wprowadzony na rynek 6 grudnia 2024 r., model przewyższa wiele otwartoźródłowych i komercyjnych chatbotów w różnych branżowych testach porównawczych. Wykorzystuje Grouped-Query Attention (GQA) w celu poprawy skalowalności i został wytrenowany na zróżnicowanym zbiorze danych obejmującym ponad 15 bilionów tokenów z publicznie dostępnych źródeł. Wiedza modelu jest aktualna do grudnia 2023 r.

Gemini 2.5 ProLlama 3.3 70B Instruct
Strona internetowa ?
Dostawca ?
Czat ?
Data wydania ?
Modalności ?
tekst ?
obrazy ?
głos ?
wideo ?
tekst ?
Dostawcy API ?
Google AI Studio, Vertex AI, Gemini app
Fireworks, Together, DeepInfra, Hyperbolic
Data ostatniej aktualizacji wiedzy ?
-
12.2024
Open Source ?
Nie
Tak
Cena za wejście ?
Niedostępne
$0.23 za milion tokenów
Cena za wyjście ?
Niedostępne
$0.40 za milion tokenów
MMLU ?
Niedostępne
86%
0-shot, CoT
Źródło
MMLU-Pro ?
Niedostępne
68.9%
5-shot, CoT
Źródło
MMMU ?
81.7%
Źródło
Niedostępne
HellaSwag ?
Niedostępne
Niedostępne
HumanEval ?
Niedostępne
88.4%
pass@1
Źródło
MATH ?
Niedostępne
77%
0-shot, CoT
Źródło
GPQA ?
84.0%
Diamond Science
Źródło
50.5%
0-shot, CoT
Źródło
IFEval ?
Niedostępne
92.1%
Źródło
SimpleQA ?
52.9%
-
AIME 2024
92.0%
-
AIME 2025
86.7%
-
Aider Polyglot ?
74.0% / 68.6%
-
LiveCodeBench v5 ?
70.4%
-
Global MMLU (Lite) ?
89.8%
-
MathVista ?
-
-
Aplikacja mobilna
-

VideoGameBench ?

Łączny wynik
0.48%
-
Doom II
0%
-
Dream DX
4.8%
-
Awakening DX
0%
-
Civilization I
0%
-
Pokemon Crystal
0%
-
The Need for Speed
0%
-
The Incredible Machine
0%
-
Secret Game 1
0%
-
Secret Game 2
0%
-
Secret Game 3
0%
-

Porównaj LLM

Dodaj komentarz


10%
Polityka prywatności i ciasteczka

Używamy plików cookies, by ułatwić korzystanie z naszych serwisów. Jeśli nie chcesz, by pliki cookies były zapisywane na Twoim dysku, zmień ustawienia swojej przeglądarki.