00:00:00Если вы писали код в Claude Code, то наверняка сталкивались с раздуванием контекста. Проблема
00:00:05в том, что каждый вызов инструмента MCP в Claude Code обходится до безумия дорого, потому что каждый
00:00:11такой вызов выгружает весь свой результат прямо в окно контекста модели объемом 200 тысяч токенов. И чем больше
00:00:17инструментов у вас под рукой, тем быстрее истощается ваш контекст. При определенных сценариях
00:00:22активное использование агента длится всего 30 минут, прежде чем контекст начинает сжиматься. И именно
00:00:28тогда ИИ начинает забывать файлы, задачи и важные решения. Не говоря уже о том, что вы тратите
00:00:34много денег на эти токены. Но существует MCP-сервер, который решает эту критическую проблему.
00:00:40Он называется Context Mode. В сегодняшнем видео мы разберем, что делает Context Mode,
00:00:44как он работает, и опробуем его в деле на небольшом демо.
00:00:48Будет очень интересно, так что давайте приступим.
00:00:55Чтобы понять, почему так происходит, давайте взглянем на цифры. Один снимок страницы Playwright
00:01:00весит около 56 КБ. Чтение 20 тикетов в GitHub — это 59 КБ. Если выполнять эти операции
00:01:08на этапе планирования несколько раз за сессию, вы, вероятно, съедите 70% окна еще до того,
00:01:14как агент напишет хотя бы одну строку кода. Context Mode работает как уровень виртуализации.
00:01:20Вместо того чтобы ИИ напрямую обращался к вашей ОС, он взаимодействует с песочницей. И вместо выгрузки огромных
00:01:26объемов данных, Context Mode индексирует их в локальной базе данных SQLite с помощью FTS5, то есть полнотекстового поиска.
00:01:34И результат весьма впечатляющий. Например, тот снимок Playwright на 56 КБ сокращается до 299
00:01:41байт — это сокращение на 99%. Или, например, этот CSV с аналитикой сжимается до 222 байт,
00:01:49что составляет почти 100%. Но экономия токенов — это лишь часть решения. Настоящая польза здесь
00:01:56заключается в непрерывности сессии. Мы все видели, как при сжатии истории агент внезапно теряет нить
00:02:03кода, написанного им 10 минут назад. Но Context Mode использует хуки для мониторинга каждой правки файла,
00:02:09операции Git и задачи субагента. Когда ваш разговор сжимается, Context Mode создает
00:02:15приоритетный многоуровневый снимок, обычно менее 2 КБ, и внедряет его обратно. По сути, это точка
00:02:22сохранения для вашей сессии кодинга. Так что теоретически вы можете продлить время сессии с 30
00:02:27минут примерно до 3 часов. Он также отслеживает решения и ошибки. Например, если ИИ попробовал
00:02:34исправление, которое не сработало 20 минут назад, он не повторит эту ошибку даже после сброса контекста. И
00:02:40установка очень проста. Если вы используете Claude Code, сначала добавьте маркетплейс Context Mode,
00:02:46выполнив следующую команду. А затем выполните команду установки плагина. И как только закончите,
00:02:53всё готово. После установки он автоматически управляет MCP-сервером, хуками и
00:02:57инструкциями по маршрутизации. Если вы используете Gemini CLI или VS Code Copilot, вы можете запустить
00:03:03npm install context-mode и добавить конфигурацию в свои настройки. Теперь давайте посмотрим на Context Mode в действии. У
00:03:10меня есть простая команда на Python, которая создаст фиктивный файл логов доступа, содержащий
00:03:15список множества фиктивных API-запросов и их статус-кодов. И каждая сотая строка — это лог
00:03:22с ошибкой 500. Теперь мы можем запустить Claude и попросить: «Эй, используй Context Mode для индексации access.log. Я
00:03:30хочу найти все паттерны ошибок 500 и суммировать IP-адреса, связанные с ними». И в
00:03:36фоновом режиме Context Mode разбивает 5000 строк файла access.log на части в своей собственной базе
00:03:44SQLite FTS5. А Claude получает только подтверждение того, что файл проиндексирован, а не сырые 5000 строк
00:03:51файла. И теперь Claude может интеллектуально искать по проиндексированной базе данных, чтобы запрашивать содержимое,
00:03:57вместо парсинга всего файла. И здесь мы видим результаты, возвращенные Claude. Но что более важно,
00:04:02давайте посмотрим на экономию средств. Мы можем сделать это, запустив команду context-mode:cts-stats, и
00:04:09проверить, сколько данных сэкономил Context Mode в текущей сессии. И вы видите результаты
00:04:15прямо здесь. Вместо того чтобы выгружать все 20 КБ в разговор, Context Mode оставил
00:04:21около 5 КБ этих сырых данных в песочнице. И этот результат довольно впечатляющий для небольшого
00:04:27файла. Это спасло около 1200 токенов от попадания в окно контекста. Таким образом, в целом мы получаем
00:04:34хорошее сокращение на 25% при запуске этого небольшого теста. Это может показаться незначительным, но учтите,
00:04:41что в обычной сессии Claude данные просто оставались бы там навсегда, пересылаясь с каждым
00:04:47новым отправленным вами сообщением. А удерживая их в песочнице, мы уже начали продлевать жизнь
00:04:53этой сессии. И этот демо-файл довольно мал, но если вы работаете с файлами побольше,
00:04:58экономия здесь может быть колоссальной. Если вы ведете масштабное исследование репозитория или анализируете
00:05:03логи производственного масштаба, экономия в 1200 токенов легко может превратиться в 100 000 токенов. Но цель здесь
00:05:11не только в экономии денег на затратах на API, хотя это и приятный бонус. Речь также о сохранении
00:05:18интеллектуальных способностей модели. Очищая окно контекста от шума, вы оставляете
00:05:24больше места для самого рассуждения. Вы даете Claude пространство, необходимое для того, чтобы быть лучшим инженером.
00:05:30Так что если вы строите сложные проекты с ИИ-агентами, попробуйте этот инструмент и посмотрите,
00:05:35насколько дольше вы сможете продлить сессии, прежде чем агент начнет сжимать контекст и забывать вещи.
00:05:41И если вам понравился этот технический разбор, пожалуйста, дайте мне знать, нажав на кнопку лайка
00:05:45под видео. А также не забудьте подписаться на наш канал. С вами был
00:05:50Андрис из Better Stack, увидимся в следующих видео.