Claude Code — это дорого. Этот MCP-сервер исправляет ситуацию (Context Mode)

BBetter Stack
Computing/SoftwareSmall Business/StartupsInternet Technology

Transcript

00:00:00Если вы писали код в Claude Code, то наверняка сталкивались с раздуванием контекста. Проблема
00:00:05в том, что каждый вызов инструмента MCP в Claude Code обходится до безумия дорого, потому что каждый
00:00:11такой вызов выгружает весь свой результат прямо в окно контекста модели объемом 200 тысяч токенов. И чем больше
00:00:17инструментов у вас под рукой, тем быстрее истощается ваш контекст. При определенных сценариях
00:00:22активное использование агента длится всего 30 минут, прежде чем контекст начинает сжиматься. И именно
00:00:28тогда ИИ начинает забывать файлы, задачи и важные решения. Не говоря уже о том, что вы тратите
00:00:34много денег на эти токены. Но существует MCP-сервер, который решает эту критическую проблему.
00:00:40Он называется Context Mode. В сегодняшнем видео мы разберем, что делает Context Mode,
00:00:44как он работает, и опробуем его в деле на небольшом демо.
00:00:48Будет очень интересно, так что давайте приступим.
00:00:55Чтобы понять, почему так происходит, давайте взглянем на цифры. Один снимок страницы Playwright
00:01:00весит около 56 КБ. Чтение 20 тикетов в GitHub — это 59 КБ. Если выполнять эти операции
00:01:08на этапе планирования несколько раз за сессию, вы, вероятно, съедите 70% окна еще до того,
00:01:14как агент напишет хотя бы одну строку кода. Context Mode работает как уровень виртуализации.
00:01:20Вместо того чтобы ИИ напрямую обращался к вашей ОС, он взаимодействует с песочницей. И вместо выгрузки огромных
00:01:26объемов данных, Context Mode индексирует их в локальной базе данных SQLite с помощью FTS5, то есть полнотекстового поиска.
00:01:34И результат весьма впечатляющий. Например, тот снимок Playwright на 56 КБ сокращается до 299
00:01:41байт — это сокращение на 99%. Или, например, этот CSV с аналитикой сжимается до 222 байт,
00:01:49что составляет почти 100%. Но экономия токенов — это лишь часть решения. Настоящая польза здесь
00:01:56заключается в непрерывности сессии. Мы все видели, как при сжатии истории агент внезапно теряет нить
00:02:03кода, написанного им 10 минут назад. Но Context Mode использует хуки для мониторинга каждой правки файла,
00:02:09операции Git и задачи субагента. Когда ваш разговор сжимается, Context Mode создает
00:02:15приоритетный многоуровневый снимок, обычно менее 2 КБ, и внедряет его обратно. По сути, это точка
00:02:22сохранения для вашей сессии кодинга. Так что теоретически вы можете продлить время сессии с 30
00:02:27минут примерно до 3 часов. Он также отслеживает решения и ошибки. Например, если ИИ попробовал
00:02:34исправление, которое не сработало 20 минут назад, он не повторит эту ошибку даже после сброса контекста. И
00:02:40установка очень проста. Если вы используете Claude Code, сначала добавьте маркетплейс Context Mode,
00:02:46выполнив следующую команду. А затем выполните команду установки плагина. И как только закончите,
00:02:53всё готово. После установки он автоматически управляет MCP-сервером, хуками и
00:02:57инструкциями по маршрутизации. Если вы используете Gemini CLI или VS Code Copilot, вы можете запустить
00:03:03npm install context-mode и добавить конфигурацию в свои настройки. Теперь давайте посмотрим на Context Mode в действии. У
00:03:10меня есть простая команда на Python, которая создаст фиктивный файл логов доступа, содержащий
00:03:15список множества фиктивных API-запросов и их статус-кодов. И каждая сотая строка — это лог
00:03:22с ошибкой 500. Теперь мы можем запустить Claude и попросить: «Эй, используй Context Mode для индексации access.log. Я
00:03:30хочу найти все паттерны ошибок 500 и суммировать IP-адреса, связанные с ними». И в
00:03:36фоновом режиме Context Mode разбивает 5000 строк файла access.log на части в своей собственной базе
00:03:44SQLite FTS5. А Claude получает только подтверждение того, что файл проиндексирован, а не сырые 5000 строк
00:03:51файла. И теперь Claude может интеллектуально искать по проиндексированной базе данных, чтобы запрашивать содержимое,
00:03:57вместо парсинга всего файла. И здесь мы видим результаты, возвращенные Claude. Но что более важно,
00:04:02давайте посмотрим на экономию средств. Мы можем сделать это, запустив команду context-mode:cts-stats, и
00:04:09проверить, сколько данных сэкономил Context Mode в текущей сессии. И вы видите результаты
00:04:15прямо здесь. Вместо того чтобы выгружать все 20 КБ в разговор, Context Mode оставил
00:04:21около 5 КБ этих сырых данных в песочнице. И этот результат довольно впечатляющий для небольшого
00:04:27файла. Это спасло около 1200 токенов от попадания в окно контекста. Таким образом, в целом мы получаем
00:04:34хорошее сокращение на 25% при запуске этого небольшого теста. Это может показаться незначительным, но учтите,
00:04:41что в обычной сессии Claude данные просто оставались бы там навсегда, пересылаясь с каждым
00:04:47новым отправленным вами сообщением. А удерживая их в песочнице, мы уже начали продлевать жизнь
00:04:53этой сессии. И этот демо-файл довольно мал, но если вы работаете с файлами побольше,
00:04:58экономия здесь может быть колоссальной. Если вы ведете масштабное исследование репозитория или анализируете
00:05:03логи производственного масштаба, экономия в 1200 токенов легко может превратиться в 100 000 токенов. Но цель здесь
00:05:11не только в экономии денег на затратах на API, хотя это и приятный бонус. Речь также о сохранении
00:05:18интеллектуальных способностей модели. Очищая окно контекста от шума, вы оставляете
00:05:24больше места для самого рассуждения. Вы даете Claude пространство, необходимое для того, чтобы быть лучшим инженером.
00:05:30Так что если вы строите сложные проекты с ИИ-агентами, попробуйте этот инструмент и посмотрите,
00:05:35насколько дольше вы сможете продлить сессии, прежде чем агент начнет сжимать контекст и забывать вещи.
00:05:41И если вам понравился этот технический разбор, пожалуйста, дайте мне знать, нажав на кнопку лайка
00:05:45под видео. А также не забудьте подписаться на наш канал. С вами был
00:05:50Андрис из Better Stack, увидимся в следующих видео.

Key Takeaway

MCP-сервер Context Mode радикально снижает затраты и продлевает жизнь сессиям Claude Code, заменяя прямую передачу тяжелых данных эффективной локальной индексацией и механизмом умных сохранений.

Highlights

Claude Code страдает от быстрого переполнения контекстного окна в 200 тысяч токенов из-за выгрузки полных результатов работы MCP-инструментов.

Context Mode работает как слой виртуализации и индексации, сохраняя данные в локальной базе SQLite (FTS5) вместо прямой передачи в LLM.

Использование этого сервера позволяет сократить объем передаваемых данных на 99%, превращая десятки килобайт в считанные байты.

Инструмент обеспечивает непрерывность сессии, создавая приоритетные многоуровневые снимки состояния (чекпоинты) объемом менее 2 КБ.

Context Mode предотвращает повторение ошибок ИИ-агентом, отслеживая историю неудачных попыток даже после сброса основного контекста.

Демонстрация на лог-файлах показала экономию около 1200 токенов в короткой сессии, что в масштабах репозитория может составить сотни тысяч токенов.

Главная ценность решения заключается в освобождении контекста для рассуждений модели, что делает Claude более эффективным инженером.

Timeline

Проблема раздувания контекста в Claude Code

Автор описывает критическую проблему высокой стоимости и ограниченного времени работы Claude Code из-за неэффективного использования контекста. Каждый вызов MCP-инструмента выгружает огромные объемы данных, что быстро заполняет окно в 200 тысяч токенов и заставляет модель забывать важные детали уже через 30 минут. Это приводит не только к финансовым потерям, но и к деградации качества кода и потере контекста текущей задачи. В качестве решения представляется MCP-сервер под названием Context Mode, обещающий исправить ситуацию. Вступление задает контекст для технического разбора того, как именно работает этот новый слой оптимизации.

Механизмы работы: Виртуализация и SQLite FTS5

В этом разделе приводятся конкретные цифры потребления ресурсов: например, чтение тикетов GitHub или скриншотов Playwright может съесть 70% лимита еще до начала написания кода. Context Mode решает это, выступая в роли песочницы, которая индексирует данные в локальной базе данных SQLite с использованием полнотекстового поиска FTS5. Вместо передачи 56 КБ данных в модель отправляется лишь ссылка в несколько сотен байт, что означает сокращение объема данных на 99-100%. Такой подход позволяет ИИ оперировать метаданными и индексами вместо того, чтобы захламлять память сырым текстом. Это фундаментально меняет способ взаимодействия агента с операционной системой и внешними API.

Непрерывность сессии и предотвращение ошибок

Основное внимание уделяется поддержанию логики работы агента на длинных дистанциях за счет системы хуков и снимков состояния. Context Mode мониторит каждую правку файлов и операции Git, создавая компактные приоритетные снимки сессии объемом менее 2 КБ. Это позволяет продлить эффективную работу с кодом с 30 минут до теоретических 3 часов без потери ключевых решений. Важной функцией является память об ошибках: если ИИ уже пробовал неудачное исправление, он не будет повторять его даже после очистки истории. Таким образом, инструмент сохраняет интеллектуальный потенциал модели, избавляя её от необходимости заново обрабатывать одни и те же данные. Автор подчеркивает, что это своего рода «точка сохранения» для процесса разработки.

Инструкция по установке и настройке

Процесс интеграции Context Mode описывается как максимально простой и доступный для различных окружений разработчика. Пользователям Claude Code достаточно добавить маркетплейс и выполнить команду установки плагина, после чего управление сервером и маршрутизацией происходит автоматически. Также упоминается поддержка других популярных инструментов, таких как Gemini CLI и VS Code Copilot, через установку пакета через npm. Автор объясняет, что после настройки конфигурации сервер начинает самостоятельно перехватывать запросы к инструментам. Это делает решение универсальным для тех, кто использует разные интерфейсы для работы с ИИ-агентами. Секция служит практическим руководством для быстрого старта с инструментом.

Демонстрация работы на примере анализа логов

В практической части видео демонстрируется обработка Python-скриптом файла логов access.log на 5000 строк с ошибками 500. При использовании обычного подхода Claude пришлось бы парсить весь файл, но с Context Mode происходит фоновая индексация в базе данных. Модель получает лишь подтверждение об успешной индексации и далее выполняет интеллектуальные поисковые запросы к базе. Это наглядно показывает, как ИИ может находить паттерны и IP-адреса, не загружая все 5000 строк непосредственно в свое окно контекста. Результаты поиска возвращаются быстро, а взаимодействие выглядит бесшовным и логичным. Данный пример иллюстрирует эффективность работы с большими текстовыми массивами данных.

Анализ статистики экономии и заключение

В финальной части автор проверяет реальную экономию с помощью команды просмотра статистики, которая показывает сокращение объема данных на 25% даже на маленьком тестовом файле. Для крупных репозиториев или промышленных логов такая оптимизация может сэкономить до 100 000 токенов за сессию, что существенно снижает счета за API. Однако подчеркивается, что экономия денег — лишь приятный бонус, а главная цель — очистка контекста от шума для улучшения рассуждений модели. В завершение Андрис из Better Stack призывает зрителей попробовать инструмент для создания сложных проектов, чтобы Claude мог оставаться «лучшим инженером». Видео заканчивается призывом к подписке и поддержке канала лайками.

Community Posts

No posts yet. Be the first to write about this video!

Write about this video