Claude Info
AI-инструменты

Kong Gateway

Kong/kong

Kong Gateway — масштабируемый API и AI-шлюз с поддержкой LLM и MCP-трафика. Обеспечивает маршрутизацию, балансировку нагрузки, аутентификацию, семантическую безопасность и аналитику. Подходит для оркестрации микросервисов и агентных AI-систем.

Подключение

terminal
bash
git clone https://github.com/Kong/kong.git

README

[![][kong-logo]][kong-url]

Stars GitHub commit activity [![Build Status][badge-action-image]][badge-action-url] Version License Twitter Follow

Kong или Kong Gateway — облачный, платформонезависимый, масштабируемый шлюз API 𖧹 LLM 𖧹 MCP, отличающийся высокой производительностью и расширяемостью через плагины. Он также предоставляет расширенные возможности управления AI-трафиком: поддержку нескольких LLM, семантическую безопасность, защиту и аналитику MCP-трафика и многое другое.

Обеспечивая функции проксирования, маршрутизации, балансировки нагрузки, проверки работоспособности, аутентификации (и другие), Kong выступает центральным слоем для оркестрации микросервисов или традиционного API-трафика — а также агентных LLM и MCP.

Kong работает нативно на Kubernetes благодаря официальному Kubernetes Ingress Controller.

[![][kong-diagram]][kong-url]


Установка | Документация | Обсуждения | Форум | Блог | [Сборки][kong-master-builds] | AI Gateway | Облачный Kong


Начало работы

Если вы предпочитаете облачный Kong, можно зарегистрироваться для бесплатного пробного периода Kong Konnect и начать работу за несколько минут. В противном случае следуйте инструкциям ниже, чтобы развернуть Kong на собственной инфраструктуре.

Протестируем Kong, добавив аутентификацию к API менее чем за 5 минут.

Рекомендуется использовать дистрибутив docker-compose по инструкциям ниже, но также доступна процедура установки через docker для запуска Kong Gateway в режиме без БД.

Независимо от того, работаете ли вы в облаке, на bare metal или в контейнерах, все поддерживаемые дистрибутивы доступны на странице официальной установки.

  1. Для начала клонируйте репозиторий Docker и перейдите в папку compose.
cmd
  $ git clone https://github.com/Kong/docker-kong
  $ cd docker-kong/compose/
  1. Запустите стек Gateway с помощью:
$ KONG_DATABASE=postgres docker-compose --profile database up

Gateway теперь доступен на следующих портах на localhost:

  • :8000 — отправка трафика к вашему сервису через Kong
  • :8001 — настройка Kong через Admin API или decK
  • :8002 — доступ к веб-интерфейсу управления Kong (Kong Manager) по адресу localhost:8002

Далее следуйте руководству по быстрому старту, чтобы ознакомиться с возможностями Gateway.

Начало работы с AI Gateway для LLM и MCP

Если вы хотите начать работу с возможностями Kong AI Gateway, включая функции LLM и MCP, обратитесь к официальной документации по AI.

Возможности

Централизуя общую функциональность API, AI и MCP для всех сервисов организации, Kong Gateway предоставляет инженерным командам больше свободы для решения наиболее важных задач.

Основные возможности Kong:

  • Расширенная маршрутизация, балансировка нагрузки, проверка работоспособности — всё настраивается через RESTful Admin API или декларативную конфигурацию.
  • Аутентификация и авторизация для API с использованием JWT, basic auth, OAuth, ACL и других методов.
  • Универсальный LLM API для маршрутизации между несколькими провайдерами: OpenAI, Anthropic, GCP Gemini, AWS Bedrock, Azure AI, Databricks, Mistral, Huggingface и другими.
  • Управление MCP-трафиком, безопасность MCP и наблюдаемость MCP, а также автогенерация MCP из любого RESTful API.
  • Более 60 AI-функций: наблюдаемость AI, семантическая безопасность и кэширование, семантическая маршрутизация и многое другое.
  • Поддержка прокси, терминации SSL/TLS и подключений для трафика L4 и L7.
  • Плагины для управления трафиком, ограничения частоты запросов, трансформации запросов/ответов, логирования, мониторинга, а также хаб разработчика плагинов.
  • Продвинутые модели развёртывания: декларативное развёртывание без базы данных и гибридное развёртывание (разделение control plane/data plane) без привязки к вендору.
  • Нативная поддержка ingress controller для Kubernetes.

[![][kong-benefits]][kong-url]

Plugin Hub

Плагины предоставляют расширенную функциональность, расширяя возможности Gateway. Многие плагины от Kong Inc. и сообщества — такие как AWS Lambda, Correlation ID и Response Transformer — представлены в Plugin Hub.

Вносите вклад в Plugin Hub и делитесь своими инновационными идеями с широким сообществом!

Участие в разработке

Мы ❤️ pull request'ы и постоянно работаем над тем, чтобы сделать участие в разработке максимально простым. Перед началом разработки с Kong Gateway ознакомьтесь со следующими ресурсами для разработчиков:

  • Community Pledge (COMMUNITY_PLEDGE.md) — наши обязательства перед open source сообществом.
  • Contributor Guide (CONTRIBUTING.md) — как вносить вклад в Kong.
  • Development Guide (DEVELOPER.md) — настройка среды разработки.

Похожие MCP-серверы