DeepChat
ThinkInAIXYZ/deepchatDeepChat — десктопная платформа для работы с AI-агентами: мультимодельный чат (OpenAI, Gemini, Anthropic, Ollama), вызов инструментов через MCP, интеграция агентов по протоколу ACP. Подходит для разработчиков и бизнеса, Apache 2.0.
Подключение
git clone https://github.com/ThinkInAIXYZ/deepchat.gitREADME
📑 Содержание
- 📑 Содержание
- 🚀 О проекте
- 💡 Почему DeepChat
- 🔥 Основные возможности
- 🧩 Интеграция ACP (Agent Client Protocol)
- 🤖 Поддерживаемые провайдеры моделей
- 🔍 Сценарии использования
- 📦 Быстрый старт
- 💻 Руководство по разработке
- 👥 Сообщество и участие в разработке
- ⭐ История звёзд
- 👨💻 Участники
- 📃 Лицензия
🚀 О проекте
DeepChat — мощная open-source платформа AI-агентов, объединяющая модели, инструменты и среды выполнения агентов в одном десктопном приложении. Независимо от того, используете ли вы облачные API — OpenAI, Gemini, Anthropic — или локально развёрнутые модели Ollama, DeepChat обеспечивает комфортный пользовательский опыт.
Помимо чата, DeepChat поддерживает агентные рабочие процессы: расширенный вызов инструментов через MCP (Model Context Protocol) и уникальную интеграцию ACP (Agent Client Protocol), позволяющую запускать ACP-совместимые агенты как полноценные «модели» с выделенным интерфейсом рабочего пространства.
💡 Почему DeepChat
По сравнению с другими AI-инструментами DeepChat предлагает следующие уникальные преимущества:
- Единое управление несколькими моделями: одно приложение поддерживает практически все популярные LLM — не нужно переключаться между несколькими программами
- Бесшовная интеграция локальных моделей: встроенная поддержка Ollama позволяет управлять локальными моделями без работы в командной строке
- Экосистема агентных протоколов: встроенная поддержка MCP обеспечивает вызов инструментов (выполнение кода, доступ к вебу и др.), а встроенная поддержка ACP подключает внешних агентов к DeepChat с нативным интерфейсом рабочего пространства
- Мощное поисковое расширение: поддержка нескольких поисковых систем делает ответы AI более точными и актуальными, предоставляя нестандартные парадигмы веб-поиска с возможностью быстрой настройки
- Ориентация на приватность: локальное хранение данных и поддержка сетевого прокси снижают риск утечки информации
- Дружественность к бизнесу: открытый исходный код под лицензией Apache License 2.0, подходит как для коммерческого, так и для личного использования
🔥 Основные возможности
- 🌐 Поддержка множества облачных провайдеров LLM: DeepSeek, OpenAI, Kimi, Grok, Gemini, Anthropic и другие
- 🏠 Поддержка локального развёртывания моделей:
- Встроенная интеграция Ollama с расширенными возможностями управления
- Управление загрузкой, развёртыванием и запуском моделей Ollama без командной строки
- 🚀 Богатые и удобные возможности чата
- Полный рендеринг Markdown с отображением блоков кода на базе лидирующего в отрасли CodeMirror
- Архитектура с несколькими окнами и вкладками, поддерживающая параллельную работу с несколькими сессиями — используйте большие модели как браузер, неблокирующий опыт обеспечивает высокую эффективность
- Поддержка рендеринга Artifacts для разнообразного представления результатов, значительно снижающего потребление токенов при интеграции с MCP
- Поддержка повторной генерации сообщений с несколькими вариантами; свободное ветвление диалогов — всегда найдётся подходящая линия рассуждений
- Поддержка отображения изображений
- 🔧 Встроенная поддержка MCP
- Поддержка транспортов
stdio/sse/streamable-http - Встроенный маркетплейс MCP-серверов с возможностью установки в один клик
- Поддержка встроенных MCP-серверов:
deepchat-search,deepchat-artifact
- Поддержка транспортов
- 🤖 Встроенная поддержка ACP
- Подключение ACP-совместимых агентов как полноценных «моделей» с выделенным интерфейсом рабочего пространства
- 🔍 Поддержка веб-поиска
- Поддержка нескольких поисковых систем: Google, Bing, Baidu, Sogou, DuckDuckGo и другие
- Поддержка пользовательских поисковых систем
- 💾 Локальное хранение данных: все данные диалогов хранятся локально для защиты конфиденциальности
- 🌍 Поддержка сетевого прокси: гибкая настройка сетевых подключений
- 🎨 Красивый интерфейс: поддержка светлой и тёмной темы
- 🌐 Многоязычная поддержка: китайский, английский, японский и другие языки
🧩 Интеграция ACP (Agent Client Protocol)
DeepChat поддерживает протокол ACP (Agent Client Protocol) — открытый стандарт для взаимодействия AI-агентов. Благодаря интеграции ACP вы можете:
- Подключать внешних ACP-совместимых агентов к DeepChat как полноценные «модели»
- Взаимодействовать с агентами через выделенный интерфейс рабочего пространства
- Объединять возможности нескольких агентов в едином интерфейсе
🤖 Поддерживаемые провайдеры моделей
| Провайдер | Тип | Статус |
|---|---|---|
| OpenAI | Облако | ✅ |
| Anthropic | Облако | ✅ |
| Gemini | Облако | ✅ |
| DeepSeek | Облако | ✅ |
| Kimi (Moonshot) | Облако | ✅ |
| Grok (xAI) | Облако | ✅ |
| Ollama | Локальный | ✅ |
| И другие | — | ✅ |
Совместимость с любым провайдером в формате API OpenAI/Gemini/Anthropic
DeepChat поддерживает любого провайдера, совместимого с форматами API OpenAI, Gemini или Anthropic, что позволяет подключать широкий спектр сторонних сервисов и локальных решений.
🔍 Сценарии использования
- Разработчики: написание кода, отладка, обзор кода с помощью AI-ассистента
- Исследователи: анализ данных, обзор литературы, генерация идей
- Авторы контента: написание текстов, редактирование, перевод
- Бизнес-пользователи: анализ документов, составление отчётов, поддержка принятия решений
- Обычные пользователи: ответы на вопросы, обучение, повседневные задачи
📦 Быстрый старт
Загрузка и установка
Перейдите на страницу релизов GitHub и скачайте установщик для вашей операционной системы:
- Windows:
.exe-установщик - macOS:
.dmg-образ - Linux:
.AppImageили.deb-пакет
Настройка моделей
- Откройте DeepChat
- Перейдите в настройки (иконка шестерёнки)
- Добавьте провайдера модели и введите API-ключ
- Выберите нужную модель
Начало работы
- Нажмите «Новый диалог»
- Выберите модель
- Начните общение!
💻 Руководство по разработке
Установка зависимостей
npm install
Запуск в режиме разработки
npm run dev
Сборка
# Для Windows
npm run build:win
# Для macOS
npm run build:mac
# Для Linux
npm run build:linux👥 Сообщество и участие в разработке
Мы приветствуем любой вклад в проект! Вы можете:
- 🐛 Сообщить об ошибке
- 💡 Предложить новую функцию
- 🔧 Отправить Pull Request
- ⭐ Поставить звезду проекту на GitHub
⭐ История звёзд
👨💻 Участники
Спасибо всем, кто вносит вклад в развитие DeepChat!