Claude Info
AI-инструменты

Deep Research

u14app/deep-research

MCP-сервер и SSE API для генерации развёрнутых исследовательских отчётов. Поддерживает Gemini, OpenAI, Anthropic, DeepSeek и другие LLM, веб-поиск, локальную базу знаний и граф знаний. Данные хранятся локально.

Подключение

terminal
bash
git clone https://github.com/u14app/deep-research.git

README

GitHub deployments GitHub Release Docker Image Size Docker Pulls License: MIT

Gemini Next Tailwind CSS shadcn/ui

Vercel Cloudflare PWA

Ask DeepWiki

Молниеносные глубокие исследовательские отчёты

Deep Research использует мощные AI-модели для генерации развёрнутых исследовательских отчётов всего за несколько минут. Проект задействует продвинутые модели «Thinking» и «Task» в сочетании с доступом к интернету, обеспечивая быстрый и глубокий анализ по любым темам. Конфиденциальность — в приоритете: все данные обрабатываются и хранятся локально.

✨ Возможности

  • Быстрые глубокие исследования: Генерирует комплексные отчёты примерно за 2 минуты, существенно ускоряя исследовательский процесс.
  • Поддержка нескольких платформ: Поддерживает быстрое развёртывание на Vercel, Cloudflare и других платформах.
  • На базе AI: Использует продвинутые AI-модели для точного и глубокого анализа.
  • Приватность данных: Ваши данные остаются конфиденциальными — всё хранится локально в браузере.
  • Поддержка множества LLM: Поддерживает широкий спектр популярных языковых моделей: Gemini, OpenAI, Anthropic, Deepseek, Grok, Mistral, Azure OpenAI, любые OpenAI-совместимые LLM, OpenRouter, Ollama и другие.
  • Поддержка веб-поиска: Поддерживает поисковые системы Searxng, Tavily, Firecrawl, Exa, Bocha, Brave и другие — LLM без встроенного поиска могут удобно использовать веб-поиск.
  • Модели Thinking и Task: Применяет модели «Thinking» и «Task» для баланса между глубиной и скоростью, обеспечивая высокое качество результатов. Поддерживается переключение исследовательских моделей.
  • Поддержка дополнительных исследований: Можно уточнять или корректировать содержимое исследования на любом этапе и запускать повторное исследование с этого места.
  • Локальная база знаний: Поддерживает загрузку и обработку текстовых файлов, Office, PDF и других ресурсов для формирования локальной базы знаний.
  • Артефакт: Поддерживает редактирование исследовательского контента в двух режимах: WYSIWYM и Markdown. Можно регулировать уровень подачи материала, длину статьи и выполнять полный перевод текста.
  • Граф знаний: Поддерживает генерацию графа знаний в один клик для системного понимания содержимого отчёта.
  • История исследований: Поддерживает сохранение истории исследований — можно в любой момент вернуться к предыдущим результатам и продолжить углублённое изучение.
  • Локальный и серверный API: Гибкость выбора между локальным и серверным вызовом API в зависимости от ваших потребностей.
  • Поддержка SaaS и MCP: Проект можно использовать как сервис глубоких исследований (SaaS) через SSE API или интегрировать в другие AI-сервисы через MCP.
  • Поддержка PWA: Благодаря технологии Progressive Web App (PWA) проект можно использовать как полноценное приложение.
  • Поддержка нескольких ключей: Поддержка нескольких API-ключей для повышения эффективности обработки запросов.
  • Мультиязычность: English, 简体中文, Español.
  • Современный стек технологий: Разработан на Next.js 15 и Shadcn UI — современный, производительный и визуально привлекательный интерфейс.
  • Лицензия MIT: Открытый исходный код, свободно доступен для личного и коммерческого использования.

🎯 Дорожная карта

  • Сохранение истории исследований
  • Редактирование финального отчёта и результатов поиска
  • Поддержка других LLM-моделей
  • Загрузка файлов и локальная база знаний
  • Поддержка SSE API и MCP-сервера

🚀 Начало работы

Использование бесплатного Gemini (рекомендуется)

  1. Получите Gemini API Key

  2. Разверните проект в один клик — на Vercel или Cloudflare

    Deploy with Vercel

    Проект поддерживает развёртывание на Cloudflare, однако для этого необходимо следовать инструкции How to deploy to Cloudflare Pages.

  3. Начните использование

Использование других LLM

  1. Разверните проект на Vercel или Cloudflare
  2. Укажите API-ключ нужной LLM
  3. Укажите базовый URL API (опционально)
  4. Начните использование

⌨️ Разработка

Выполните следующие шаги, чтобы запустить Deep Research в локальном браузере.

Требования

  • Node.js (рекомендуется версия 18.18.0 или выше)
  • pnpm, npm или yarn

Установка

  1. Клонируйте репозиторий:

    bash
    git clone https://github.com/u14app/deep-research.git
    cd deep-research
  2. Установите зависимости:

    pnpm install
  3. Настройте переменные окружения:

    Создайте файл .env.local в корне проекта и добавьте необходимые переменные окружения (API-ключи и т.д.). Пример можно найти в .env.example.

  4. Запустите сервер разработки:

    pnpm dev
  5. Откройте http://localhost:3000 в браузере.

🖥️ Самостоятельное развёртывание

Развёртывание на Vercel

Deploy with Vercel

Развёртывание на Cloudflare Pages

См. инструкцию How to deploy to Cloudflare Pages.

Развёртывание через Docker

bash
docker pull xiangfa/deep-research:latest
docker run -d -p 3000:3000 xiangfa/deep-research:latest

Также можно задать переменные окружения:

bash
docker run -d -p 3000:3000 \
  -e NEXT_PUBLIC_DEFAULT_MODEL=gemini-2.0-flash \
  -e GEMINI_API_KEY=AIza... \
  xiangfa/deep-research:latest

🤖 MCP-сервер

Deep Research поддерживает протокол MCP (Model Context Protocol) и предоставляет следующие инструменты:

  • deep_research — выполняет глубокое исследование по заданной теме и возвращает структурированный отчёт.

Настройка MCP

Добавьте следующую конфигурацию в файл настроек MCP:

json
{
  "mcpServers": {
    "deep-research": {
      "url": "http://localhost:3000/api/mcp"
    }
  }
}

Если вы используете задеплоенную версию, замените http://localhost:3000 на URL вашего развёртывания.

📡 SSE API

Deep Research предоставляет SSE API для использования в качестве сервиса глубоких исследований.

Эндпоинт

POST /api/research

Параметры запроса

json
{
  "query": "Тема исследования",
  "language": "ru"
}

Пример ответа

API возвращает Server-Sent Events (SSE) со следующими типами событий:

  • search — результаты поиска
  • research — промежуточные результаты исследования
  • report — финальный отчёт

🔧 Переменные окружения

ПеременнаяОписаниеОбязательная
NEXT_PUBLIC_DEFAULT_MODELМодель по умолчаниюНет
GEMINI_API_KEYGemini API KeyНет
OPENAI_API_KEYOpenAI API KeyНет
ANTHROPIC_API_KEYAnthropic API KeyНет
ACCESS_PASSWORDПароль доступа для защиты сервисаНет

🙏 Благодарности

📄 Лицензия

Этот проект распространяется под лицензией MIT.

Похожие MCP-серверы