Llama Guard 4 12B
meta-llama/llama-guard-4-12b
Llama Guard 4 — мультимодальная предобученная модель на базе Llama 4 Scout, дообученная для классификации безопасности контента. Как и предыдущие версии, она может использоваться для классификации контента как во входных данных LLM (классификация промптов), так и в ответах LLM (классификация ответов). Она действует как LLM — генерирует текст, указывающий, является ли заданный запрос или ответ безопасным или небезопасным, и если небезопасным, перечисляет нарушенные категории контента. Llama Guard 4 выровнена по стандартизированной таксономии рисков MLCommons и создана для поддержки мультимодальных возможностей Llama 4. В частности, она объединяет возможности предыдущих моделей Llama Guard, обеспечивает модерацию контента на английском и ряде поддерживаемых языков, а также расширенную работу со смешанными запросами «текст+изображение», включая несколько изображений. Кроме того, Llama Guard 4 интегрирована в Llama Moderations API, расширяя надёжную классификацию безопасности для текста и изображений.
Как использовать модель
Готовые примеры, где модель уже указана в запросе.
curl https://api.routify.ru/v1/chat/completions \
-H "Authorization: Bearer $ROUTIFY_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "meta-llama/llama-guard-4-12b",
"messages": [
{"role": "system", "content": "Ты - полезный ассистент."},
{"role": "user", "content": "Объясни, что такое API"}
]
}'
import os
from openai import OpenAI
client = OpenAI(
api_key=os.environ["ROUTIFY_API_KEY"],
base_url="https://api.routify.ru/v1",
)
response = client.chat.completions.create(
model="meta-llama/llama-guard-4-12b",
messages=[
{"role": "system", "content": "Ты - полезный ассистент."},
{"role": "user", "content": "Объясни, что такое API"},
],
)
print(response.choices[0].message.content)
const response = await fetch("https://api.routify.ru/v1/chat/completions", {
method: "POST",
headers: {
"Authorization": `Bearer ${process.env.ROUTIFY_API_KEY}`,
"Content-Type": "application/json",
},
body: JSON.stringify({
model: "meta-llama/llama-guard-4-12b",
messages: [
{ role: "system", content: "Ты - полезный ассистент." },
{ role: "user", content: "Объясни, что такое API" }
]
})
});
const data = await response.json();
console.log(data.choices[0].message.content);