Сравнение моделей Llama 4 Scout vs Qwen3 Coder 480B A35B

Сравнение моделей Llama 4 Scout vs Qwen3 Coder 480B A35B по цене, контексту и дате релиза.

×
meta-llama
Llama 4 Scout
meta-llama/llama-4-scout

Llama 4 Scout 17B Instruct (16E) — языковая модель Mixture‑of‑Experts (MoE), разработанная Meta, активирующая 17 млрд параметров из общего числа 109B. Она поддерживает нативный мультимодальный ввод (текст и изображение) и многоязычные выходы (текст и код) на 12 поддерживаемых языках. Созданная для ассистентных сценариев и визуальных рассуждений, Scout использует 16 экспертов на проход и имеет контекст длиной 10 миллионов токенов, при обучающем корпусе около 40 трлн токенов. Разработанная для высокой эффективности и локального или коммерческого развёртывания, Llama 4 Scout использует раннее слияние модальностей для бесшовной интеграции. Она обучена на инструкции для многоязычного чата, описания и понимания изображений. Выпущена под лицензией Llama 4 Community License, последняя итерация обучения — данные до августа 2024 года, публичный релиз — 5 апреля 2025 года.

Контекст 327K
Вход / 1M ₽9.12
Выход / 1M ₽34.20
Выпущена 5 Apr 2025
×
qwen
Qwen3 Coder 480B A35B
qwen/qwen3-coder

Qwen3-Coder-480B-A35B-Instruct — MoE‑модель генерации кода, разработанная командой Qwen. Она оптимизирована для агентных задач программирования, таких как вызов функций, использование инструментов и рассуждения на длинном контексте по репозиториям. Модель содержит 480 млрд параметров, из которых 35 млрд активируются за проход (8 из 160 экспертов). Цены на эндпоинтах Alibaba зависят от длины контекста. Если запрос превышает 128k входных токенов, применяется повышенная тарификация.

Контекст 262K
Вход / 1M ₽45.60
Выход / 1M ₽182.40
Выпущена 23 Jul 2025