Сравнение моделей Llama 4 Scout vs Mistral Small 3.2 24B
Сравнение моделей Llama 4 Scout vs Mistral Small 3.2 24B по цене, контексту и дате релиза.
meta-llama/llama-4-scout
Llama 4 Scout 17B Instruct (16E) — языковая модель Mixture‑of‑Experts (MoE), разработанная Meta, активирующая 17 млрд параметров из общего числа 109B. Она поддерживает нативный мультимодальный ввод (текст и изображение) и многоязычные выходы (текст и код) на 12 поддерживаемых языках. Созданная для ассистентных сценариев и визуальных рассуждений, Scout использует 16 экспертов на проход и имеет контекст длиной 10 миллионов токенов, при обучающем корпусе около 40 трлн токенов. Разработанная для высокой эффективности и локального или коммерческого развёртывания, Llama 4 Scout использует раннее слияние модальностей для бесшовной интеграции. Она обучена на инструкции для многоязычного чата, описания и понимания изображений. Выпущена под лицензией Llama 4 Community License, последняя итерация обучения — данные до августа 2024 года, публичный релиз — 5 апреля 2025 года.
mistralai/mistral-small-3.2-24b-instruct
Mistral-Small-3.2-24B-Instruct-2506 — обновлённая 24B‑модель от Mistral, оптимизированная для следования инструкциям, снижения повторов и улучшенного вызова функций. По сравнению с релизом 3.1 версия 3.2 заметно повышает точность на WildBench и Arena Hard, уменьшает бесконечные генерации и улучшает работу с инструментами и задачами структурированных выходов. Поддерживает входы изображение+текст со структурированными выходами, вызов функций/инструментов и сильные результаты в программировании (HumanEval+, MBPP), STEM (MMLU, MATH, GPQA) и vision‑бенчмарках (ChartQA, DocVQA).