Open Multi-Agent
JackChen-me/open-multi-agentTypeScript-фреймворк для запуска команд AI-агентов с автоматической декомпозицией задач, параллельным выполнением и поддержкой Claude, GPT, Gemini, DeepSeek и локальных моделей. Всего 3 runtime-зависимости, встраивается в любой Node.js-бэкенд.
Подключение
npm install @jackchen_me/open-multi-agentREADME
Open Multi-Agent
Лёгкий движок оркестрации мультиагентных команд для TypeScript. Три runtime-зависимости, нулевая конфигурация, от цели к результату — в одном вызове runTeam().
CrewAI — это Python. LangGraph заставляет вас рисовать граф вручную. open-multi-agent — это npm install, который вы добавляете в существующий Node.js-бэкенд, когда нужна команда агентов для совместной работы над целью. Ничего лишнего.
English | 中文
Что вы получаете
- От цели к результату в одном вызове.
runTeam(team, "Build a REST API")запускает агента-координатора, который декомпозирует цель в DAG задач, разрешает зависимости, выполняет независимые задачи параллельно и синтезирует итоговый результат. Никаких графов, никакой ручной разводки задач. - TypeScript-native, три runtime-зависимости.
@anthropic-ai/sdk,openai,zod— это весь runtime. Встраивается в Express, Next.js, serverless-функции или CI/CD-пайплайны. Без Python-рантайма, без subprocess-моста, без облачного сайдкара. - Мультимодельные команды. Claude, GPT, Gemini, Grok, MiniMax, DeepSeek, Copilot или любая OpenAI-совместимая локальная модель (Ollama, vLLM, LM Studio, llama.cpp) — в одной команде. Архитектор на Opus 4.6, разработчик на GPT-5.4, ревьюер на локальном Gemma 4 — всё в одном вызове
runTeam(). Gemini поставляется как опциональная peer-зависимость:npm install @google/genaiдля подключения.
Другие возможности (интеграция MCP, стратегии контекста, структурированный вывод, повтор задач, human-in-the-loop, lifecycle-хуки, обнаружение циклов, наблюдаемость) описаны ниже и в examples/.
Философия: что мы строим, а что — нет
Наша цель — быть простейшим мультиагентным фреймворком для TypeScript. Простота не означает закрытость. Мы считаем, что долгосрочная ценность фреймворка определяется размером экосистемы, к которой он подключается, а не списком фич.
Мы строим:
- Координатора, который декомпозирует цель в DAG задач.
- Очередь задач, которая выполняет независимые задачи параллельно и каскадирует сбои на зависимые.
- Общую память и шину сообщений, чтобы агенты видели результаты друг друга.
- Мультимодельные команды, где каждый агент может использовать разного LLM-провайдера.
Мы не строим:
- Передачу управления между агентами. Если агент A должен передать разговор агенту B в середине диалога — используйте OpenAI Agents SDK. В нашей модели каждый агент владеет одной задачей от начала до конца, без передач в середине диалога.
- Персистентность состояния / чекпоинтинг. Пока не планируется. Добавление бэкенда хранилища нарушит обещание трёх зависимостей, а наши воркфлоу выполняются за секунды-минуты, а не часы. Если реальное использование сместится в сторону долгих воркфлоу — пересмотрим.
Отслеживаем:
- Протокол A2A. Наблюдаем, перейдём когда появится реальное production-внедрение.
Полное обоснование решений — в DECISIONS.md.
Чем это отличается от X?
vs. LangGraph JS. LangGraph — декларативная граф-оркестрация: вы определяете узлы, рёбра и условную маршрутизацию, затем compile() и invoke(). open-multi-agent — целеориентированный: вы объявляете команду и цель, координатор декомпозирует её в DAG задач во время выполнения. LangGraph даёт полный контроль над топологией (отлично для фиксированных production-воркфлоу). Этот фреймворк требует меньше кода и ускоряет итерации (отлично для исследовательской мультиагентной работы). У LangGraph также есть зрелый чекпоинтинг; у нас — нет.
vs. CrewAI. CrewAI — зрелый выбор для Python. Если ваш стек на Python — используйте CrewAI. open-multi-agent — TypeScript-native: три runtime-зависимости, встраивается напрямую в Node.js без subprocess-моста. Возможности оркестрации примерно сопоставимы. Выбирайте по языку.
vs. Vercel AI SDK. AI SDK — слой LLM-вызовов: унифицированный TypeScript-клиент для 60+ провайдеров со стримингом, вызовами инструментов и структурированным выводом. Он не оркестрирует мультиагентные команды. open-multi-agent располагается поверх, когда это нужно. Они компонуются: используйте AI SDK для одноагентной работы, берите этот фреймворк когда нужна команда.
Используется в
open-multi-agent — новый проект (запущен 2026-04-01, MIT, 5 500+ звёзд). Экосистема только формируется, поэтому список ниже короткий и честный:
- temodar-agent (~50 звёзд). Платформа анализа безопасности WordPress от Ali Sünbül. Использует встроенные инструменты (
bash,file_*,grep) напрямую в Docker-рантайме. Подтверждённое production-использование. - Cybersecurity SOC (домашняя лаборатория). Приватная установка с Qwen 2.5 + DeepSeek Coder полностью офлайн через Ollama, строит автономный SOC-пайплайн на Wazuh + Proxmox. Ранний пользователь, пока не публично.
Используете open-multi-agent в production или пет-проекте? Откройте обсуждение — добавим вас сюда.
Быстрый старт
Требуется Node.js >= 18.
npm install @jackchen_me/open-multi-agent
Установите API-ключ для вашего провайдера. Локальные модели через Ollama не требуют ключа. См. providers/ollama.
ANTHROPIC_API_KEYAZURE_OPENAI_API_KEY,AZURE_OPENAI_ENDPOINT,AZURE_OPENAI_API_VERSION,AZURE_OPENAI_DEPLOYMENT(для Azure OpenAI)DEEPSEEK_API_KEYGEMINI_API_KEY(требуетnpm install @google/genai)GROK_API_KEYMINIMAX_API_KEY,MINIMAX_GROUP_IDOPENAI_API_KEY