MiniMax выложила в открытый доступ MiniMax-M2 — продвинутую нейросеть на 230 миллиардов параметров, которая сочетает высокую производительность с экономным расходом ресурсов.
Модель уже доступна всем желающим — её можно протестировать через веб-агента, подключить к собственным продуктам через API, или скачать на Hugging Face для локального запуска. Postium собрал ключевые детали о новой модели MiniMax.
Читайте также: 6 лучших чат-ботов на базе ИИ
Что умеет нейросеть MiniMax-M2
MiniMax-M2 — это ИИ-модель типа MoE (Mixture of Experts), то есть внутри неё десятки специализированных «экспертов», но во время каждого запроса активны только нужные — всего около 10 миллиардов параметров из 230 миллиардов общих.
Фишка в том, что при 10 млрд активных параметров модель быстрее реагирует, меньше нагружает серверы, что снижает стоимость обслуживания и легче масштабируется (можно запускать десятки агентов параллельно). Она может планировать действия и выполнять их последовательно, взаимодействуя с кодом, файлами и интернетом.
На практике это значит, что M2 работает быстрее, чем гиганты вроде GPT-5 или Gemini 2.5, гораздо дешевле и при этом сохраняет высокое качество ответов.
Вот что она умеет:
- Исправлять и дополнять код в больших проектах (multi-file edits);
- Самостоятельно запускать, проверять и чинить программы («coding-run-fix» цикл);
- Работать с терминалом, браузером, поиском и внешними инструментами;
- Понимать задачи на нескольких языках программирования;
- И даже планировать сложные цепочки действий — например, найти информацию, проверить её и оформить отчёт.
Показатели на бенчмарках
По данным исследовательской группы Artificial Analysis, MiniMax-M2 показала лучшие результаты среди всех открытых моделей по совокупной «оценке интеллекта».
Она уверенно выступила на десятках бенчмарков (тестов):
- SWE-Bench и Terminal-Bench — задачи для разработчиков: M2 успешно решала реальные баги в репозиториях и работала с терминалом почти на уровне GPT-5.
- BrowseComp — тест на умение действовать в интернете: искать информацию, переходить по ссылкам, собирать доказательства. M2 показала уверенные результаты и в английской, и в китайской версиях.
- GAIA и τ²-Bench — комплексные проверки «общего интеллекта», планирования и рассуждений. Здесь MiniMax-M2 также вошла в число лидеров.
Отдельно исследователи отметили, что модель впечатляюще сбалансирована: она сильна и в коде, и в математике, и в рассуждениях, хотя активных параметров у неё в 7 раз меньше, чем у некоторых конкурентов.
Как использовать MiniMax-M2
MiniMax предлагает три варианта:
- MiniMax Agent — веб-приложение, где можно попробовать модель прямо в браузере (по ссылке).
- MiniMax Open Platform API — для разработчиков, чтобы встроить M2 в свои сервисы.
- Hugging Face — можно скачать веса модели и запустить локально.
Для локального развёртывания компания рекомендует фреймворки vLLM и SGLang — они уже поддерживают M2 «из коробки». Рекомендованные параметры для работы: temperature=1.0, top_p=0.95, top_k=40.
Есть и техническая особенность: MiniMax-M2 — interleaved thinking-модель, то есть она «думает вслух» в процессе вывода. Разработчики просят не удалять части текста внутри тегов
Почему это важно? MiniMax-M2 — это шаг в сторону более прикладного и экономичного искусственного интеллекта. Она показывает, что большие мозги можно упаковать в компактную форму, не теряя производительности.
Итог: На практике это значит, что теперь любой разработчик может взять MiniMax-M2 и построить на её базе собственного ИИ-агента или код-ассистента уровня коммерческих решений — без огромных затрат и ограничений. Проще говоря, MiniMax дала миру «движок» для создания чат-ботов по типу ChatGPT.
Ранее команда LongCat из Meituan представила нейросеть для генерации длинных видео.





