deepseek
DeepSeek V3.1
deepseek/deepseek-chat-v3.1
DeepSeek‑V3.1 — крупная гибридная модель рассуждений с режимами thinking и non‑thinking, построенная на базе DeepSeek‑V3 и дообученная для длинного контекста. Она использует FP8‑microscaling для более эффективного инференса, улучшает работу с инструментами и генерацию кода и подходит для сложных агентных сценариев. Модель поддерживает structured tool calling, code agents и search agents, а режим рассуждений можно контролировать через параметр `reasoning.enabled`. Она приходит на смену [DeepSeek V3‑0324](/deepseek/deepseek-chat-v3-0324) и хорошо подходит для исследований, программирования и общего аналитического использования.
Быстрый старт
Как использовать модель
Готовые примеры, где модель уже указана в запросе.
curl https://api.routify.ru/v1/chat/completions \
-H "Authorization: Bearer $ROUTIFY_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek/deepseek-chat-v3.1",
"messages": [
{"role": "system", "content": "Ты - полезный ассистент."},
{"role": "user", "content": "Объясни, что такое API"}
]
}'
import os
from openai import OpenAI
client = OpenAI(
api_key=os.environ["ROUTIFY_API_KEY"],
base_url="https://api.routify.ru/v1",
)
response = client.chat.completions.create(
model="deepseek/deepseek-chat-v3.1",
messages=[
{"role": "system", "content": "Ты - полезный ассистент."},
{"role": "user", "content": "Объясни, что такое API"},
],
)
print(response.choices[0].message.content)
const response = await fetch("https://api.routify.ru/v1/chat/completions", {
method: "POST",
headers: {
"Authorization": `Bearer ${process.env.ROUTIFY_API_KEY}`,
"Content-Type": "application/json",
},
body: JSON.stringify({
model: "deepseek/deepseek-chat-v3.1",
messages: [
{ role: "system", content: "Ты - полезный ассистент." },
{ role: "user", content: "Объясни, что такое API" }
]
})
});
const data = await response.json();
console.log(data.choices[0].message.content);