Сравнение моделей Mixtral 8x7B Instruct vs Qwen3 Coder 480B A35B

Сравнение моделей Mixtral 8x7B Instruct vs Qwen3 Coder 480B A35B по цене, контексту и дате релиза.

×
mistralai
Mixtral 8x7B Instruct
mistralai/mixtral-8x7b-instruct

Mixtral 8x7B Instruct — instruction‑модель Mistral на архитектуре Sparse Mixture of Experts, предназначенная для чата и задач следования инструкциям. Она включает 8 экспертов при общем числе 47 млрд параметров и сочетает хорошее качество с эффективным использованием вычислений. Подходит для общих текстовых задач и ассистентных сценариев.

Контекст 32K
Вход / 1M ₽61.56
Выход / 1M ₽61.56
Выпущена 10 Dec 2023
×
qwen
Qwen3 Coder 480B A35B
qwen/qwen3-coder

Qwen3-Coder-480B-A35B-Instruct — MoE‑модель генерации кода, разработанная командой Qwen. Она оптимизирована для агентных задач программирования, таких как вызов функций, использование инструментов и рассуждения на длинном контексте по репозиториям. Модель содержит 480 млрд параметров, из которых 35 млрд активируются за проход (8 из 160 экспертов). Цены на эндпоинтах Alibaba зависят от длины контекста. Если запрос превышает 128k входных токенов, применяется повышенная тарификация.

Контекст 262K
Вход / 1M ₽45.60
Выход / 1M ₽182.40
Выпущена 23 Jul 2025