Сравнение моделей Mixtral 8x7B Instruct vs o3-mini

Сравнение моделей Mixtral 8x7B Instruct vs o3-mini по цене, контексту и дате релиза.

×
mistralai
Mixtral 8x7B Instruct
mistralai/mixtral-8x7b-instruct

Mixtral 8x7B Instruct — instruction‑модель Mistral на архитектуре Sparse Mixture of Experts, предназначенная для чата и задач следования инструкциям. Она включает 8 экспертов при общем числе 47 млрд параметров и сочетает хорошее качество с эффективным использованием вычислений. Подходит для общих текстовых задач и ассистентных сценариев.

Контекст 32K
Вход / 1M ₽61.56
Выход / 1M ₽61.56
Выпущена 10 Dec 2023
×
openai
o3-mini
openai/o3-mini

OpenAI o3-mini — экономичная языковая модель, оптимизированная для задач рассуждений в STEM, особенно сильная в науке, математике и программировании. Эта модель поддерживает параметр `reasoning_effort`, который можно установить в значения "high", "medium" или "low" для управления временем на рассуждения. Значение по умолчанию — "medium". OpenRouter также предлагает слаг модели `openai/o3-mini-high`, чтобы по умолчанию использовать параметр "high". Модель имеет три регулируемых уровня усилия рассуждений и поддерживает ключевые возможности для разработчиков, включая вызов функций, структурированные выходные данные и стриминг, но не поддерживает обработку изображений. Модель демонстрирует значительные улучшения по сравнению с предшественником: эксперты предпочитали её ответы в 56% случаев и отмечали снижение серьёзных ошибок на сложных вопросах на 39%. При среднем уровне усилия рассуждений o3-mini соответствует производительности более крупной модели o1 на сложных оценках рассуждений, таких как AIME и GPQA, сохраняя меньшую задержку и стоимость.

Контекст 200K
Вход / 1M ₽125.40
Выход / 1M ₽501.60
Выпущена 31 Jan 2025