Claude Info
AI-инструменты

Open Multi-Agent

JackChen-me/open-multi-agent

TypeScript-фреймворк для запуска команд AI-агентов с автоматической декомпозицией задач, параллельным выполнением и поддержкой Claude, GPT, Gemini, DeepSeek и локальных моделей. Всего 3 runtime-зависимости, встраивается в любой Node.js-бэкенд.

Подключение

terminal
bash
npm install @jackchen_me/open-multi-agent

README

Open Multi-Agent

Лёгкий движок оркестрации мультиагентных команд для TypeScript. Три runtime-зависимости, нулевая конфигурация, от цели к результату — в одном вызове runTeam().

CrewAI — это Python. LangGraph заставляет вас рисовать граф вручную. open-multi-agent — это npm install, который вы добавляете в существующий Node.js-бэкенд, когда нужна команда агентов для совместной работы над целью. Ничего лишнего.

npm version GitHub stars license TypeScript runtime deps codecov

English | 中文

Что вы получаете

  • От цели к результату в одном вызове. runTeam(team, "Build a REST API") запускает агента-координатора, который декомпозирует цель в DAG задач, разрешает зависимости, выполняет независимые задачи параллельно и синтезирует итоговый результат. Никаких графов, никакой ручной разводки задач.
  • TypeScript-native, три runtime-зависимости. @anthropic-ai/sdk, openai, zod — это весь runtime. Встраивается в Express, Next.js, serverless-функции или CI/CD-пайплайны. Без Python-рантайма, без subprocess-моста, без облачного сайдкара.
  • Мультимодельные команды. Claude, GPT, Gemini, Grok, MiniMax, DeepSeek, Copilot или любая OpenAI-совместимая локальная модель (Ollama, vLLM, LM Studio, llama.cpp) — в одной команде. Архитектор на Opus 4.6, разработчик на GPT-5.4, ревьюер на локальном Gemma 4 — всё в одном вызове runTeam(). Gemini поставляется как опциональная peer-зависимость: npm install @google/genai для подключения.

Другие возможности (интеграция MCP, стратегии контекста, структурированный вывод, повтор задач, human-in-the-loop, lifecycle-хуки, обнаружение циклов, наблюдаемость) описаны ниже и в examples/.

Философия: что мы строим, а что — нет

Наша цель — быть простейшим мультиагентным фреймворком для TypeScript. Простота не означает закрытость. Мы считаем, что долгосрочная ценность фреймворка определяется размером экосистемы, к которой он подключается, а не списком фич.

Мы строим:

  • Координатора, который декомпозирует цель в DAG задач.
  • Очередь задач, которая выполняет независимые задачи параллельно и каскадирует сбои на зависимые.
  • Общую память и шину сообщений, чтобы агенты видели результаты друг друга.
  • Мультимодельные команды, где каждый агент может использовать разного LLM-провайдера.

Мы не строим:

  • Передачу управления между агентами. Если агент A должен передать разговор агенту B в середине диалога — используйте OpenAI Agents SDK. В нашей модели каждый агент владеет одной задачей от начала до конца, без передач в середине диалога.
  • Персистентность состояния / чекпоинтинг. Пока не планируется. Добавление бэкенда хранилища нарушит обещание трёх зависимостей, а наши воркфлоу выполняются за секунды-минуты, а не часы. Если реальное использование сместится в сторону долгих воркфлоу — пересмотрим.

Отслеживаем:

  • Протокол A2A. Наблюдаем, перейдём когда появится реальное production-внедрение.

Полное обоснование решений — в DECISIONS.md.

Чем это отличается от X?

vs. LangGraph JS. LangGraph — декларативная граф-оркестрация: вы определяете узлы, рёбра и условную маршрутизацию, затем compile() и invoke(). open-multi-agent — целеориентированный: вы объявляете команду и цель, координатор декомпозирует её в DAG задач во время выполнения. LangGraph даёт полный контроль над топологией (отлично для фиксированных production-воркфлоу). Этот фреймворк требует меньше кода и ускоряет итерации (отлично для исследовательской мультиагентной работы). У LangGraph также есть зрелый чекпоинтинг; у нас — нет.

vs. CrewAI. CrewAI — зрелый выбор для Python. Если ваш стек на Python — используйте CrewAI. open-multi-agent — TypeScript-native: три runtime-зависимости, встраивается напрямую в Node.js без subprocess-моста. Возможности оркестрации примерно сопоставимы. Выбирайте по языку.

vs. Vercel AI SDK. AI SDK — слой LLM-вызовов: унифицированный TypeScript-клиент для 60+ провайдеров со стримингом, вызовами инструментов и структурированным выводом. Он не оркестрирует мультиагентные команды. open-multi-agent располагается поверх, когда это нужно. Они компонуются: используйте AI SDK для одноагентной работы, берите этот фреймворк когда нужна команда.

Используется в

open-multi-agent — новый проект (запущен 2026-04-01, MIT, 5 500+ звёзд). Экосистема только формируется, поэтому список ниже короткий и честный:

  • temodar-agent (~50 звёзд). Платформа анализа безопасности WordPress от Ali Sünbül. Использует встроенные инструменты (bash, file_*, grep) напрямую в Docker-рантайме. Подтверждённое production-использование.
  • Cybersecurity SOC (домашняя лаборатория). Приватная установка с Qwen 2.5 + DeepSeek Coder полностью офлайн через Ollama, строит автономный SOC-пайплайн на Wazuh + Proxmox. Ранний пользователь, пока не публично.

Используете open-multi-agent в production или пет-проекте? Откройте обсуждение — добавим вас сюда.

Быстрый старт

Требуется Node.js >= 18.

npm install @jackchen_me/open-multi-agent

Установите API-ключ для вашего провайдера. Локальные модели через Ollama не требуют ключа. См. providers/ollama.

  • ANTHROPIC_API_KEY
  • AZURE_OPENAI_API_KEY, AZURE_OPENAI_ENDPOINT, AZURE_OPENAI_API_VERSION, AZURE_OPENAI_DEPLOYMENT (для Azure OpenAI)
  • DEEPSEEK_API_KEY
  • GEMINI_API_KEY (требует npm install @google/genai)
  • GROK_API_KEY
  • MINIMAX_API_KEY, MINIMAX_GROUP_ID
  • OPENAI_API_KEY

Похожие MCP-серверы