Сравнение моделей Mixtral 8x7B Instruct vs Qwen3.5-122B-A10B

Сравнение моделей Mixtral 8x7B Instruct vs Qwen3.5-122B-A10B по цене, контексту и дате релиза.

×
mistralai
Mixtral 8x7B Instruct
mistralai/mixtral-8x7b-instruct

Mixtral 8x7B Instruct — instruction‑модель Mistral на архитектуре Sparse Mixture of Experts, предназначенная для чата и задач следования инструкциям. Она включает 8 экспертов при общем числе 47 млрд параметров и сочетает хорошее качество с эффективным использованием вычислений. Подходит для общих текстовых задач и ассистентных сценариев.

Контекст 32K
Вход / 1M ₽61.56
Выход / 1M ₽61.56
Выпущена 10 Dec 2023
×
qwen
Qwen3.5-122B-A10B
qwen/qwen3.5-122b-a10b

Нативная vision‑language модель Qwen3.5 122B‑A10B построена на гибридной архитектуре, объединяющей линейное внимание с разреженной MoE‑моделью, что обеспечивает более высокую эффективность инференса. По общей производительности эта модель уступает только Qwen3.5‑397B‑A17B. Её текстовые возможности существенно превосходят Qwen3‑235B‑2507, а визуальные — превосходят Qwen3‑VL‑235B.

Контекст 262K
Вход / 1M ₽33.06
Выход / 1M ₽330.60
Выпущена 25 Feb 2026