Сравнение моделей Llama 4 Scout vs NVIDIA-Nemotron-3-Super-120B-A12B

Сравнение моделей Llama 4 Scout vs NVIDIA-Nemotron-3-Super-120B-A12B по цене, контексту и дате релиза.

×
meta-llama
Llama 4 Scout
meta-llama/llama-4-scout

Llama 4 Scout 17B Instruct (16E) — языковая модель Mixture‑of‑Experts (MoE), разработанная Meta, активирующая 17 млрд параметров из общего числа 109B. Она поддерживает нативный мультимодальный ввод (текст и изображение) и многоязычные выходы (текст и код) на 12 поддерживаемых языках. Созданная для ассистентных сценариев и визуальных рассуждений, Scout использует 16 экспертов на проход и имеет контекст длиной 10 миллионов токенов, при обучающем корпусе около 40 трлн токенов. Разработанная для высокой эффективности и локального или коммерческого развёртывания, Llama 4 Scout использует раннее слияние модальностей для бесшовной интеграции. Она обучена на инструкции для многоязычного чата, описания и понимания изображений. Выпущена под лицензией Llama 4 Community License, последняя итерация обучения — данные до августа 2024 года, публичный релиз — 5 апреля 2025 года.

Контекст 327K
Вход / 1M ₽9.12
Выход / 1M ₽34.20
Выпущена 5 Apr 2025
×
nvidia
NVIDIA-Nemotron-3-Super-120B-A12B
nvidia/NVIDIA-Nemotron-3-Super-120B-A12B

NVIDIA Nemotron 3 Super — открытая гибридная MoE‑модель, оптимизированная под высокую вычислительную эффективность и точность в многоагентных приложениях и специализированных agentic‑системах. Она рассчитана на запуск большого числа взаимодействующих агентов в рамках одного приложения, в том числе на одном GPU, сохраняя сильные результаты в reasoning, использовании инструментов и следовании инструкциям. Подходит для сложных агентных workflow, где важны throughput, длинный контекст и гибкость развёртывания.

Контекст 262K
Вход / 1M ₽11.40
Выход / 1M ₽57.00
Выпущена