Claude Info
AI и агенты

shiplog

devallibus/shiplog

Скилл для Claude Code, Codex и Cursor: фиксирует решения, открытия и компромиссы в GitHub. Кросс-модельное ревью, подписи артефактов, маршрутизация по уровням моделей и полная история PR — всё в одном инструменте.

Установка

terminal
bash
npx skills add devallibus/shiplog --skill shiplog

README

shiplog

Капитанский журнал вашей кодовой базы. Каждое решение, открытие и компромисс — зафиксированы в GitHub по мере разработки.

Быстрая установка

npx skills add devallibus/shiplog --skill shiplog

Работает с Claude Code, Codex и Cursor. Требует только gh CLI.


Ваш AI-ассистент забывает всё между сессиями

Вчера вы обсуждали дизайн с Claude. Сегодня новая сессия начинается с нуля. Логика за тем auth-middleware? Исчезла. Три отклонённых альтернативы? Нигде не найти. Архитектурное решение прошлой недели? Похоронено в логе чата, который невозможно найти.

shiplog заставляет вашу git-историю помнить всё. Не только что изменилось — но почему, что рассматривалось и что было обнаружено по пути.

Brainstorm → Issue → Branch → Commits → PR ↑ ↑ | Discoveries → New Issues / Stacked PRs | └── Search it all later: issues, PRs, commits, memory

Что вы получаете

Каждый мозговой штурм становится GitHub Issue. Проектные решения, рассмотренные альтернативы и список задач — всё доступно для поиска навсегда.

Каждый коммит несёт контекст. Не просто «add JWT validation» — но почему JWT, а не сессии, что пробовали сначала и на что обратить внимание.

Каждый PR рассказывает полную историю. Хронология всего пути: что планировалось, что обнаружилось в процессе, что изменилось и почему.

Ничто не теряется. Нашли подзадачу во время разработки? shiplog направит её — исправить на месте, создать prerequisite PR или завести новый issue. Ваше открытие никогда не пропадёт.

Любая модель может продолжить с того места, где остановилась другая. Каждый артефакт подписан: кто его создал (какая AI-модель, какой инструмент). Передача контекста между моделями — полноценная функция, а не копипаст.


Как это работает

Вы говорите «давай обсудим auth middleware» — и shiplog фиксирует результат как GitHub issue. Когда вы говорите «работаем над #42», создаётся изолированная ветка в git worktree. По мере коммитов логируется обоснование. При открытии PR записывается хронология всего пути.

Ваш привычный рабочий процесс — с базой знаний, которая сохраняется между сессиями, моделями и инструментами.

ШагЧто происходит
BrainstormОбсуждение дизайна становится GitHub Issue со списком задач
BranchСоздаётся изолированный worktree, запускается хронология, загружается план
DiscoverПодзадачи маршрутизируются: inline-фикс, stacked PR или новый issue
CommitConventional commits с контекстными комментариями к значимым изменениям
ShipPR с полной хронологией пути, решениями и выводами
SearchПоиск любого прошлого решения по issues, PR и коммитам

Два режима

Full Mode (по умолчанию) — знания попадают напрямую в issues и PR. Идеально для личных проектов и open source.

Quiet Mode — команда видит чистые PR. Полное обоснование хранится в отдельной ветке --log, в один клик.

main └── feature/auth-middleware ← Чистый PR (видит команда) └── feature/auth-middleware--log ← База знаний (в один клик)

Возможности

Кросс-модельное ревью

Ни один PR не мержится без ревью от другой AI-модели или человека. Ситуация, когда одна модель сама пишет, ревьюит и мержит свою работу — это антипаттерн, который shiplog предотвращает. Ревью содержат подписанные строки Reviewed-by:, поддерживают четыре диспозиции (approve, approve-with-follow-ups, request-changes, comment) и генерируют самодостаточные review-контракты, когда запустить ревьюера невозможно.

Подпись идентичности агента

Каждый артефакт содержит подпись провенанса — Authored-by: claude/opus-4.6 (claude-code). Система подписи автоматически определяет текущую модель из платформы и делает всё доступным для поиска:

bash
gh issue list --search "Authored-by: claude/"   # все артефакты Claude
gh pr list --search "Reviewed-by:"              # все ревью

Маршрутизация по уровням моделей

Используйте лучшую модель для мозгового штурма, быструю — для реализации. shiplog предлагает переключиться при смене фазы и записывает контекстные передачи, чтобы принимающая модель могла выполнить задачу без догадок.

УровеньЛучше всего дляПримеры моделей
tier-1 (reasoning)Архитектура, компромиссы, синтез PRClaude Opus, o3
tier-2 (capable)Загрузка контекста, структурированные документыClaude Sonnet
tier-3 (fast)Реализация, рутинные коммитыClaude Haiku, GPT-4o-mini

Контракты делегирования

Когда reasoning-модель передаёт работу более быстрой, передача структурирована: разрешённые файлы, запрещённые изменения, условия остановки, требования верификации и бюджет решений. Если tier-3 модель, читая передачу, должна принимать самостоятельное суждение — передача недостаточно конкретна.

Оркестрация с учётом среды выполнения

shiplog различает оркестрацию и изоляцию. Задача может оставаться внутри одного оркестратора с локальными параллельными вызовами инструментов, разветвляться на ограниченные суб-агенты или переходить во внешнюю сессию — например, фоновый воркер на базе tmux. Главное: контракт диспетчеризации и сводка сбора данных сохраняются, и shiplog не притворяется, что вспомогательный поток является независимым ревьюером, если это не так.

Протокол обнаружений

Нашли баг во время разработки фичи? shiplog классифицирует и направляет его:

Discovery made during work ├── Small fix (< 30 min)? → Fix inline, add timeline comment ├── Prerequisite for current work? → Stack a new branch/PR ├── Independent but important? → Create new issue, continue └── Refactoring opportunity? → Create issue tagged "refactor"

Предварительные зависимости получают собственный issue и ветку с перекрёстными ссылками на родительский. Ничто не теряется.

Инкрементальная поставка задач

Шипуйте постепенно. Коммиты ссылаются на задачи (feat(#42/T1): add JWT validation), PR с частичной поставкой используют Addresses #42 (completes T1, T2), а issue остаётся открытым для оставшейся работы. Никаких преждевременных закрытий, никаких потерянных задач.

Похожие скиллы