Сравнение моделей DeepSeek R1 Distill Llama 70B vs Qwen3 Coder 480B A35B

Сравнение моделей DeepSeek R1 Distill Llama 70B vs Qwen3 Coder 480B A35B по цене, контексту и дате релиза.

×
deepseek
DeepSeek R1 Distill Llama 70B
deepseek/deepseek-r1-distill-llama-70b

DeepSeek R1 Distill Llama 70B — дистиллированная языковая модель на базе [Llama‑3.3‑70B‑Instruct](/meta-llama/llama-3.3-70b-instruct), использующая выходы [DeepSeek R1](/deepseek/deepseek-r1). Она переносит сильные reasoning‑способности DeepSeek R1 в более компактный форм‑фактор и хорошо подходит для задач математики, программирования и аналитики. Это практичный вариант, когда нужен баланс между качеством рассуждений и вычислительной стоимостью.

Контекст 131K
Вход / 1M ₽79.80
Выход / 1M ₽91.20
Выпущена 23 Jan 2025
×
qwen
Qwen3 Coder 480B A35B
qwen/qwen3-coder

Qwen3-Coder-480B-A35B-Instruct — MoE‑модель генерации кода, разработанная командой Qwen. Она оптимизирована для агентных задач программирования, таких как вызов функций, использование инструментов и рассуждения на длинном контексте по репозиториям. Модель содержит 480 млрд параметров, из которых 35 млрд активируются за проход (8 из 160 экспертов). Цены на эндпоинтах Alibaba зависят от длины контекста. Если запрос превышает 128k входных токенов, применяется повышенная тарификация.

Контекст 262K
Вход / 1M ₽45.60
Выход / 1M ₽182.40
Выпущена 23 Jul 2025