Я тут решил покопаться в кишках Claude Code, посмотреть, какие промпты оно использует и как работает с моим контекстом.
Сначала я читал локальные сессии (
Демка в комментах
Зачем это нужно в реальной работе:
- Ловить, почему модель тупит: где контекста недостаточно, где его слишком много, где инструмент возвращает мусор.
- Без боли отлаживать свой development pipeline: чётко видеть вход/выход и понимать, как это работает.
- Учиться на чужих: разобрать, как сделаны готовые тулзы, и утащить лучшие паттерны.
На прошедшем office hours я рассказывал о том, что, на мой взгляд, гораздо понятнее, как работают приложения с LLM капотом, когда мы пытаемся их создать самостоятельно, либо хотя бы разбираем, что за запросы они отправляют.
Поэтому, у меня появилась идея воркшопа:
Я вижу это в виде пары созвонов на 2-3 часа продолжительностью каждый, два дня подряд, 3-5 человек максимум, 7к рублей за всё с человека
За это время мы заглянем в кишки разных инструментов, я наглядно показать, как делать context management, как спеки помогают решать задачи, как feedback loop помогает иметь стабильный код, вместе напишем какого нибудь ботика или простой инструмент, полезный в быту; ну и конечно отвечу на вопросы.
Чем вам может быть полезен такой воркшоп?
- разберётесь наконец, почему у вас не получается кодить с ai и как это можно решить
- научитесь генерить более надёжный код
- чут-чут снизите FOMO 😄
пара требований:
- иметь опыт в python/typecript от 1-2
- иметь опыт работы с ai coding tools ранее (cursors, windsurf, claude code, etc)
что думаете?
вопросы можно задать в комментах или написать мне в лс @yatimur
Сначала я читал локальные сессии (
~/.claude/.../session_id.jsonl) — это нестабильно и неудобно (я был в режиме вайб кодинга, а отуплённый sonnet запутался во всём этом без правил и доков))). Попробовал MITM-прокси (mitmproxy): подменяю Anthropic Base URL на localhost:8000, пропускаю все запросы через этот прокси и показываю вижу то, что CC отправляет к себе на сервер. В итоге форкнул этот инструмент и допилил режим отображения request/response в человекочитаемом виде.Демка в комментах
Зачем это нужно в реальной работе:
- Ловить, почему модель тупит: где контекста недостаточно, где его слишком много, где инструмент возвращает мусор.
- Без боли отлаживать свой development pipeline: чётко видеть вход/выход и понимать, как это работает.
- Учиться на чужих: разобрать, как сделаны готовые тулзы, и утащить лучшие паттерны.
На прошедшем office hours я рассказывал о том, что, на мой взгляд, гораздо понятнее, как работают приложения с LLM капотом, когда мы пытаемся их создать самостоятельно, либо хотя бы разбираем, что за запросы они отправляют.
Поэтому, у меня появилась идея воркшопа:
Я вижу это в виде пары созвонов на 2-3 часа продолжительностью каждый, два дня подряд, 3-5 человек максимум, 7к рублей за всё с человека
За это время мы заглянем в кишки разных инструментов, я наглядно показать, как делать context management, как спеки помогают решать задачи, как feedback loop помогает иметь стабильный код, вместе напишем какого нибудь ботика или простой инструмент, полезный в быту; ну и конечно отвечу на вопросы.
Чем вам может быть полезен такой воркшоп?
- разберётесь наконец, почему у вас не получается кодить с ai и как это можно решить
- научитесь генерить более надёжный код
- чут-чут снизите FOMO 😄
пара требований:
- иметь опыт в python/typecript от 1-2
- иметь опыт работы с ai coding tools ранее (cursors, windsurf, claude code, etc)
что думаете?
вопросы можно задать в комментах или написать мне в лс @yatimur