Deep Research
u14app/deep-researchMCP-сервер и SSE API для генерации развёрнутых исследовательских отчётов. Поддерживает Gemini, OpenAI, Anthropic, DeepSeek и другие LLM, веб-поиск, локальную базу знаний и граф знаний. Данные хранятся локально.
Подключение
git clone https://github.com/u14app/deep-research.gitREADME
Молниеносные глубокие исследовательские отчёты
Deep Research использует мощные AI-модели для генерации развёрнутых исследовательских отчётов всего за несколько минут. Проект задействует продвинутые модели «Thinking» и «Task» в сочетании с доступом к интернету, обеспечивая быстрый и глубокий анализ по любым темам. Конфиденциальность — в приоритете: все данные обрабатываются и хранятся локально.
✨ Возможности
- Быстрые глубокие исследования: Генерирует комплексные отчёты примерно за 2 минуты, существенно ускоряя исследовательский процесс.
- Поддержка нескольких платформ: Поддерживает быстрое развёртывание на Vercel, Cloudflare и других платформах.
- На базе AI: Использует продвинутые AI-модели для точного и глубокого анализа.
- Приватность данных: Ваши данные остаются конфиденциальными — всё хранится локально в браузере.
- Поддержка множества LLM: Поддерживает широкий спектр популярных языковых моделей: Gemini, OpenAI, Anthropic, Deepseek, Grok, Mistral, Azure OpenAI, любые OpenAI-совместимые LLM, OpenRouter, Ollama и другие.
- Поддержка веб-поиска: Поддерживает поисковые системы Searxng, Tavily, Firecrawl, Exa, Bocha, Brave и другие — LLM без встроенного поиска могут удобно использовать веб-поиск.
- Модели Thinking и Task: Применяет модели «Thinking» и «Task» для баланса между глубиной и скоростью, обеспечивая высокое качество результатов. Поддерживается переключение исследовательских моделей.
- Поддержка дополнительных исследований: Можно уточнять или корректировать содержимое исследования на любом этапе и запускать повторное исследование с этого места.
- Локальная база знаний: Поддерживает загрузку и обработку текстовых файлов, Office, PDF и других ресурсов для формирования локальной базы знаний.
- Артефакт: Поддерживает редактирование исследовательского контента в двух режимах: WYSIWYM и Markdown. Можно регулировать уровень подачи материала, длину статьи и выполнять полный перевод текста.
- Граф знаний: Поддерживает генерацию графа знаний в один клик для системного понимания содержимого отчёта.
- История исследований: Поддерживает сохранение истории исследований — можно в любой момент вернуться к предыдущим результатам и продолжить углублённое изучение.
- Локальный и серверный API: Гибкость выбора между локальным и серверным вызовом API в зависимости от ваших потребностей.
- Поддержка SaaS и MCP: Проект можно использовать как сервис глубоких исследований (SaaS) через SSE API или интегрировать в другие AI-сервисы через MCP.
- Поддержка PWA: Благодаря технологии Progressive Web App (PWA) проект можно использовать как полноценное приложение.
- Поддержка нескольких ключей: Поддержка нескольких API-ключей для повышения эффективности обработки запросов.
- Мультиязычность: English, 简体中文, Español.
- Современный стек технологий: Разработан на Next.js 15 и Shadcn UI — современный, производительный и визуально привлекательный интерфейс.
- Лицензия MIT: Открытый исходный код, свободно доступен для личного и коммерческого использования.
🎯 Дорожная карта
- Сохранение истории исследований
- Редактирование финального отчёта и результатов поиска
- Поддержка других LLM-моделей
- Загрузка файлов и локальная база знаний
- Поддержка SSE API и MCP-сервера
🚀 Начало работы
Использование бесплатного Gemini (рекомендуется)
-
Получите Gemini API Key
-
Разверните проект в один клик — на Vercel или Cloudflare
Проект поддерживает развёртывание на Cloudflare, однако для этого необходимо следовать инструкции How to deploy to Cloudflare Pages.
-
Начните использование
Использование других LLM
- Разверните проект на Vercel или Cloudflare
- Укажите API-ключ нужной LLM
- Укажите базовый URL API (опционально)
- Начните использование
⌨️ Разработка
Выполните следующие шаги, чтобы запустить Deep Research в локальном браузере.
Требования
Установка
-
Клонируйте репозиторий:
bashgit clone https://github.com/u14app/deep-research.git cd deep-research -
Установите зависимости:
pnpm install -
Настройте переменные окружения:
Создайте файл
.env.localв корне проекта и добавьте необходимые переменные окружения (API-ключи и т.д.). Пример можно найти в.env.example. -
Запустите сервер разработки:
pnpm dev -
Откройте http://localhost:3000 в браузере.
🖥️ Самостоятельное развёртывание
Развёртывание на Vercel
Развёртывание на Cloudflare Pages
См. инструкцию How to deploy to Cloudflare Pages.
Развёртывание через Docker
docker pull xiangfa/deep-research:latest
docker run -d -p 3000:3000 xiangfa/deep-research:latestТакже можно задать переменные окружения:
docker run -d -p 3000:3000 \
-e NEXT_PUBLIC_DEFAULT_MODEL=gemini-2.0-flash \
-e GEMINI_API_KEY=AIza... \
xiangfa/deep-research:latest🤖 MCP-сервер
Deep Research поддерживает протокол MCP (Model Context Protocol) и предоставляет следующие инструменты:
deep_research— выполняет глубокое исследование по заданной теме и возвращает структурированный отчёт.
Настройка MCP
Добавьте следующую конфигурацию в файл настроек MCP:
{
"mcpServers": {
"deep-research": {
"url": "http://localhost:3000/api/mcp"
}
}
}Если вы используете задеплоенную версию, замените http://localhost:3000 на URL вашего развёртывания.
📡 SSE API
Deep Research предоставляет SSE API для использования в качестве сервиса глубоких исследований.
Эндпоинт
POST /api/research
Параметры запроса
{
"query": "Тема исследования",
"language": "ru"
}Пример ответа
API возвращает Server-Sent Events (SSE) со следующими типами событий:
search— результаты поискаresearch— промежуточные результаты исследованияreport— финальный отчёт
🔧 Переменные окружения
| Переменная | Описание | Обязательная |
|---|---|---|
NEXT_PUBLIC_DEFAULT_MODEL | Модель по умолчанию | Нет |
GEMINI_API_KEY | Gemini API Key | Нет |
OPENAI_API_KEY | OpenAI API Key | Нет |
ANTHROPIC_API_KEY | Anthropic API Key | Нет |
ACCESS_PASSWORD | Пароль доступа для защиты сервиса | Нет |
🙏 Благодарности
📄 Лицензия
Этот проект распространяется под лицензией MIT.