AI

Kimi выпустила K2.5 — открытую мультимодальную модель с агентным режимом

Kimi выпустила K2.5 — открытую мультимодальную модель с агентным режимом

Компания Moonshot AI представила Kimi K2.5 — новую версию своей -модели, ориентированную на программирование, работу с инструментами и агентные сценарии. Модель мультимодальная: она принимает текст, изображения и видео и может использовать визуальный ввод при решении задач.

K2.5 уже доступна на сайте Kimi и в официальном приложении. Для разработчиков открыт API. Режим Agent Swarm находится в бете и включён не для всех пользователей: доступ зависит от платформы и тарифа. Веса модели опубликованы на Hugging Face под лицензией Modified MIT.

Читайте также: ТОП-5 нейросетей для работы

Kimi K2.5 — что умеет и как работает

Kimi k2.5 — это нативная мультимодальная модель с ным окном около 262 тысяч токенов. Она работает в двух режимах: быстром (для чата) и «мыслящем». Модель обучена на смешанном массиве текстовых и визуальных данных объёмом около 15 трлн токенов.

Модель можно попросить написать код по текстовому описанию интерфейса, по скриншоту или даже по видеозаписи. Это же используется для визуальной отладки: поиск ошибок в UI, расхождений с макетами и проблем поведения интерфейса.

Вторая ключевая функция — Agent Swarm. В этом режиме K2.5 может создавать до 100 подагентов и выполнять задачи параллельно, вызывая инструменты цепочками. Moonshot заявляет поддержку до 1 500 одновременных tool calls и ускорение сложных задач до 4,5 раза по сравнению с одиночным агентом.

Как пользоваться

В чат-боте на сайт Kimi и в приложении доступны режимы Instant, Thinking, Agent и Agent Swarm. Пользователь выбирает режим и формулирует задачу текстом, изображением или видео.

Kimi выпустила K2.5 — открытую мультимодальную модель с агентным режимом

Kimi выпустила K2.5 — открытую мультимодальную модель с агентным режимом

Для разработчиков модель доступна через API с совместимостью в стиле и Anthropic. Для агентных сценариев Moonshot предлагает собственную обвязку — Kimi Code.

Почему это важно? K2.5 нацелена на две ключевые прикладные задачи. Первая — сделать мультимодальность полезной для разработки, когда изображение или видео превращаются не просто в описание, а в рабочий код или инструмент для отладки. Вторая — упростить агентную оркестрацию, где одна задача требует планирования, параллельной проверки и множества вызовов инструментов.

По данным VentureBeat со ссылкой на материалы Moonshot, K2.5 показала 50,2% на Humanity's Last Exam и 76,8% на SWE-bench Verified. Эти результаты не являются абсолютной мерой качества, но показывают позиционирование модели — прямую конкуренцию с закрытыми топ-моделями в кодинге и агентных задачах.

Kimi выпустила K2.5 — открытую мультимодальную модель с агентным режимом

Kimi выпустила K2.5 — открытую мультимодальную модель с агентным режимом

Kimi K2.5 построена на MoE-архитектуре: при большом общем числе параметров на каждом токене активируется только часть модели. В материалах NVIDIA для K2.5 указаны 1 трлн параметров, 32 млрд активируемых и 384 эксперта — ставка на эффективность без отказа от высокой верхней планки качества.

Рынок в целом движется в сторону «моделей как движков автоматизации», а не просто чат-ботов. K2.5 вписывается в этот тренд как открытая мультимодальная модель, ориентированная на код, инструменты и агентные сценарии.

Итог: Kimi K2.5 — это попытка сделать мультимодальность и агентность прикладными для разработки и автоматизации, причём в формате, который можно использовать и как сервис, и как открытые веса.

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

14 + 18 =

Кнопка «Наверх»