Сравнение моделей Llama Guard 4 12B vs o3-mini
Сравнение моделей Llama Guard 4 12B vs o3-mini по цене, контексту и дате релиза.
meta-llama/llama-guard-4-12b
Llama Guard 4 — мультимодальная предобученная модель на базе Llama 4 Scout, дообученная для классификации безопасности контента. Как и предыдущие версии, она может использоваться для классификации контента как во входных данных LLM (классификация промптов), так и в ответах LLM (классификация ответов). Она действует как LLM — генерирует текст, указывающий, является ли заданный запрос или ответ безопасным или небезопасным, и если небезопасным, перечисляет нарушенные категории контента. Llama Guard 4 выровнена по стандартизированной таксономии рисков MLCommons и создана для поддержки мультимодальных возможностей Llama 4. В частности, она объединяет возможности предыдущих моделей Llama Guard, обеспечивает модерацию контента на английском и ряде поддерживаемых языков, а также расширенную работу со смешанными запросами «текст+изображение», включая несколько изображений. Кроме того, Llama Guard 4 интегрирована в Llama Moderations API, расширяя надёжную классификацию безопасности для текста и изображений.
openai/o3-mini
OpenAI o3-mini — экономичная языковая модель, оптимизированная для задач рассуждений в STEM, особенно сильная в науке, математике и программировании. Эта модель поддерживает параметр `reasoning_effort`, который можно установить в значения "high", "medium" или "low" для управления временем на рассуждения. Значение по умолчанию — "medium". OpenRouter также предлагает слаг модели `openai/o3-mini-high`, чтобы по умолчанию использовать параметр "high". Модель имеет три регулируемых уровня усилия рассуждений и поддерживает ключевые возможности для разработчиков, включая вызов функций, структурированные выходные данные и стриминг, но не поддерживает обработку изображений. Модель демонстрирует значительные улучшения по сравнению с предшественником: эксперты предпочитали её ответы в 56% случаев и отмечали снижение серьёзных ошибок на сложных вопросах на 39%. При среднем уровне усилия рассуждений o3-mini соответствует производительности более крупной модели o1 на сложных оценках рассуждений, таких как AIME и GPQA, сохраняя меньшую задержку и стоимость.