Llama 3.3 70B Instruct

Llama 3.3 70B Instruct, созданная Meta, — это многоязычная крупная языковая модель, специально доработанная для задач на основе инструкций и оптимизированная для разговорных приложений. Она способна обрабатывать и генерировать текст на нескольких языках, поддерживая контекстное окно до 128 000 токенов. Запущенная 6 декабря 2024 года, модель превосходит многие open-source и проприетарные чат-модели в различных отраслевых тестах. Она использует Grouped-Query Attention (GQA) для улучшения масштабируемости и обучена на разнообразном наборе данных, содержащем более 15 триллионов токенов из общедоступных источников. Знания модели актуальны на декабрь 2023 года.

Nova Micro

Amazon Nova Micro — это текстовый модель, оптимизированная для снижения затрат и увеличения скорости. С контекстным окном в 128K токенов она превосходно справляется с такими задачами, как суммаризация текста, перевод, интерактивный чат и базовое программирование. Выпущена в рамках серии базовых моделей Amazon Nova, поддерживает дообучение и дистилляцию для кастомизации на собственных данных.

Llama 3.3 70B InstructNova Micro
Провайдер
Веб-сайт
Дата выпуска
Dec 06, 2024
4 месяца назад
Dec 02, 2024
4 месяца назад
Модальности
текст ?
текст ?
Поставщики API
Fireworks, Together, DeepInfra, Hyperbolic
Amazon Bedrock
Дата актуальности знаний
12.2024
Целенаправленно не раскрывается
Открытый исходный код
Да
Нет
Стоимость ввода
$0.23 за миллион токенов
$0.04 за миллион токенов
Стоимость вывода
$0.40 за миллион токенов
$0.14 за миллион токенов
MMLU
86%
0-shot, CoT
Источник
77.6%
CoT
Источник
MMLU Pro
68.9%
5-shot, CoT
Источник
-
MMMU
Недоступно
-
HellaSwag
Недоступно
-
HumanEval
88.4%
pass@1
Источник
81.1%
pass@1
Источник
MATH
77%
0-shot, CoT
Источник
69.3%
CoT
Источник
GPQA
50.5%
0-shot, CoT
Источник
40%
Main
Источник
IFEval
92.1%
Источник
87.2%
Источник
Мобильное приложение
-
-

Сравнение LLM

Добавить комментарий


10%
Наш сайт использует cookies

Этот сайт использует файлы cookie. Продолжая пользоваться сайтом, вы соглашаетесь с их использованием.