Kong Gateway
Kong/kongKong Gateway — масштабируемый API и AI-шлюз с поддержкой LLM и MCP-трафика. Обеспечивает маршрутизацию, балансировку нагрузки, аутентификацию, семантическую безопасность и аналитику. Подходит для оркестрации микросервисов и агентных AI-систем.
Подключение
git clone https://github.com/Kong/kong.gitREADME
[![][kong-logo]][kong-url]
[![Build Status][badge-action-image]][badge-action-url]
Kong или Kong Gateway — облачный, платформонезависимый, масштабируемый шлюз API 𖧹 LLM 𖧹 MCP, отличающийся высокой производительностью и расширяемостью через плагины. Он также предоставляет расширенные возможности управления AI-трафиком: поддержку нескольких LLM, семантическую безопасность, защиту и аналитику MCP-трафика и многое другое.
Обеспечивая функции проксирования, маршрутизации, балансировки нагрузки, проверки работоспособности, аутентификации (и другие), Kong выступает центральным слоем для оркестрации микросервисов или традиционного API-трафика — а также агентных LLM и MCP.
Kong работает нативно на Kubernetes благодаря официальному Kubernetes Ingress Controller.
[![][kong-diagram]][kong-url]
Установка | Документация | Обсуждения | Форум | Блог | [Сборки][kong-master-builds] | AI Gateway | Облачный Kong
Начало работы
Если вы предпочитаете облачный Kong, можно зарегистрироваться для бесплатного пробного периода Kong Konnect и начать работу за несколько минут. В противном случае следуйте инструкциям ниже, чтобы развернуть Kong на собственной инфраструктуре.
Протестируем Kong, добавив аутентификацию к API менее чем за 5 минут.
Рекомендуется использовать дистрибутив docker-compose по инструкциям ниже, но также доступна процедура установки через docker для запуска Kong Gateway в режиме без БД.
Независимо от того, работаете ли вы в облаке, на bare metal или в контейнерах, все поддерживаемые дистрибутивы доступны на странице официальной установки.
- Для начала клонируйте репозиторий Docker и перейдите в папку compose.
$ git clone https://github.com/Kong/docker-kong
$ cd docker-kong/compose/- Запустите стек Gateway с помощью:
$ KONG_DATABASE=postgres docker-compose --profile database up
Gateway теперь доступен на следующих портах на localhost:
:8000— отправка трафика к вашему сервису через Kong:8001— настройка Kong через Admin API или decK:8002— доступ к веб-интерфейсу управления Kong (Kong Manager) по адресу localhost:8002
Далее следуйте руководству по быстрому старту, чтобы ознакомиться с возможностями Gateway.
Начало работы с AI Gateway для LLM и MCP
Если вы хотите начать работу с возможностями Kong AI Gateway, включая функции LLM и MCP, обратитесь к официальной документации по AI.
Возможности
Централизуя общую функциональность API, AI и MCP для всех сервисов организации, Kong Gateway предоставляет инженерным командам больше свободы для решения наиболее важных задач.
Основные возможности Kong:
- Расширенная маршрутизация, балансировка нагрузки, проверка работоспособности — всё настраивается через RESTful Admin API или декларативную конфигурацию.
- Аутентификация и авторизация для API с использованием JWT, basic auth, OAuth, ACL и других методов.
- Универсальный LLM API для маршрутизации между несколькими провайдерами: OpenAI, Anthropic, GCP Gemini, AWS Bedrock, Azure AI, Databricks, Mistral, Huggingface и другими.
- Управление MCP-трафиком, безопасность MCP и наблюдаемость MCP, а также автогенерация MCP из любого RESTful API.
- Более 60 AI-функций: наблюдаемость AI, семантическая безопасность и кэширование, семантическая маршрутизация и многое другое.
- Поддержка прокси, терминации SSL/TLS и подключений для трафика L4 и L7.
- Плагины для управления трафиком, ограничения частоты запросов, трансформации запросов/ответов, логирования, мониторинга, а также хаб разработчика плагинов.
- Продвинутые модели развёртывания: декларативное развёртывание без базы данных и гибридное развёртывание (разделение control plane/data plane) без привязки к вендору.
- Нативная поддержка ingress controller для Kubernetes.
[![][kong-benefits]][kong-url]
Plugin Hub
Плагины предоставляют расширенную функциональность, расширяя возможности Gateway. Многие плагины от Kong Inc. и сообщества — такие как AWS Lambda, Correlation ID и Response Transformer — представлены в Plugin Hub.
Вносите вклад в Plugin Hub и делитесь своими инновационными идеями с широким сообществом!
Участие в разработке
Мы ❤️ pull request'ы и постоянно работаем над тем, чтобы сделать участие в разработке максимально простым. Перед началом разработки с Kong Gateway ознакомьтесь со следующими ресурсами для разработчиков:
- Community Pledge (COMMUNITY_PLEDGE.md) — наши обязательства перед open source сообществом.
- Contributor Guide (CONTRIBUTING.md) — как вносить вклад в Kong.
- Development Guide (DEVELOPER.md) — настройка среды разработки.