Сравнение моделей R1 0528 vs Mixtral 8x7B Instruct
Сравнение моделей R1 0528 vs Mixtral 8x7B Instruct по цене, контексту и дате релиза.
×
deepseek
R1 0528
deepseek/deepseek-r1-0528
Обновление от 28 мая для [исходной модели DeepSeek R1](/deepseek/deepseek-r1). Производительность на уровне [OpenAI o1](/openai/o1), но с открытым исходным кодом и полностью открытыми токенами рассуждений. Размер — 671B параметров, из них 37B активны за один проход инференса. Полностью open‑source модель.
Контекст
163K
Вход / 1M
₽57.00
Выход / 1M
₽245.10
Выпущена
28 May 2025
×
mistralai
Mixtral 8x7B Instruct
mistralai/mixtral-8x7b-instruct
Mixtral 8x7B Instruct — instruction‑модель Mistral на архитектуре Sparse Mixture of Experts, предназначенная для чата и задач следования инструкциям. Она включает 8 экспертов при общем числе 47 млрд параметров и сочетает хорошее качество с эффективным использованием вычислений. Подходит для общих текстовых задач и ассистентных сценариев.
Контекст
32K
Вход / 1M
₽61.56
Выход / 1M
₽61.56
Выпущена
10 Dec 2023