Mistral Medium 3 создана, чтобы закрыть промежуток между легковесной Small и флагманской Large.
Модель построена на обновлённой архитектуре Mixtral MoE v3 с 36 млрд параметров, где одновременно активны лишь 9 млрд. Такой «умный роутинг» снижает расходы на вычисления, сохраняя уровень точности, сравнимый с моделями вдвое крупнее.
Ключевые возможностиЧто это даёт120 K контекстаАнализ книг, лонгридов, больших логов без потери нити разговораДо 260 т/с генерацииРеактивные чат‑боты и быстрый автокомплит в IDEГибкий стильОт нейтрального делового тона до креативного storyteller по одному prompt‑свитчуМультиязычность + кодПоддержка 25 языков и top‑5 место в HumanEval‑2025Apache 2.0 weightsВозможность локального хостинга, дообучения и аудита безопасности
Когда выбирать Medium 3?
- Нужна модель «ставил — и работает»: без дорогих GPU‑кластеров, но с качеством уровня GPT‑4o‑mini.
- Требуется реальное время ответа для поддержки, игр, аналитических дашбордов.
- Важно соблюсти GDPR/инфраструктурные требования — модель можно поднять on‑prem.
- Хотите снизить бюджет: стоимость токена ~40 % ниже, чем у Large.
Попробуйте Mistral Medium 3 в GPTunneL прямо сейчас — без VPN и лишних настроек, и убедитесь, как хорошо сбалансирован «золотой» вариант линейки Mistral.