Сравнение моделей Llama-4-Maverick-17B-128E-Instruct-FP8 vs Qwen3 Coder 480B A35B

Сравнение моделей Llama-4-Maverick-17B-128E-Instruct-FP8 vs Qwen3 Coder 480B A35B по цене, контексту и дате релиза.

×
meta-llama
Llama-4-Maverick-17B-128E-Instruct-FP8
meta-llama/Llama-4-Maverick-17B-128E-Instruct-FP8

Llama 4 Maverick — нативно мультимодальная модель семейства Llama 4, построенная на архитектуре Mixture‑of‑Experts и предназначенная для работы с текстом и изображениями в одном workflow. Вариант Maverick использует 17 млрд активных параметров и 128 экспертов, сочетая сильное понимание текста и визуального контента с высокой пропускной способностью. Подходит для мультимодальных ассистентов, визуального анализа и задач, где важны длинный контекст и универсальность.

Контекст 1M
Вход / 1M ₽17.10
Выход / 1M ₽68.40
Выпущена
×
qwen
Qwen3 Coder 480B A35B
qwen/qwen3-coder

Qwen3-Coder-480B-A35B-Instruct — MoE‑модель генерации кода, разработанная командой Qwen. Она оптимизирована для агентных задач программирования, таких как вызов функций, использование инструментов и рассуждения на длинном контексте по репозиториям. Модель содержит 480 млрд параметров, из которых 35 млрд активируются за проход (8 из 160 экспертов). Цены на эндпоинтах Alibaba зависят от длины контекста. Если запрос превышает 128k входных токенов, применяется повышенная тарификация.

Контекст 262K
Вход / 1M ₽45.60
Выход / 1M ₽182.40
Выпущена 23 Jul 2025