Hermes: самообучающийся агент, который становится умнее с каждым днем

BBetter Stack
Computing/SoftwareSmall Business/StartupsInternet Technology

Transcript

00:00:00Итак, Hermes — это ИИ-агент с открытым исходным кодом, созданный американской компанией Nous Research,
00:00:06способный к самообучению. По сути, чем больше вы его используете, тем лучше он становится. Он анализирует,
00:00:10учится и развивается сам по себе, он ничего не забывает и даже создает свои собственные
00:00:16навыки. Но достаточно ли этого, чтобы заменить что-то вроде OpenClaw, который поддерживает
00:00:22намного больше каналов, имеет лучшую «песочницу» и гораздо более зрелый? Подписывайтесь, и давайте разберемся.
00:00:30Название Hermes, как ни странно, происходит от имени греческого бога-вестника.
00:00:37И именно оттуда взялся этот символ. Вы увидите его позже в видео. Но на данный момент,
00:00:42я уже делал видео об OpenClaw — он хорош, но в нем много функций, которые я лично
00:00:47не использую. И NanoClaw, у которого набор функций меньше, но он построен на базе
00:00:52Claude agent SDK, который теперь стал для меня менее удобным из-за странных правил использования
00:00:59подписки Claude со сторонними инструментами. Так что теперь я в поиске нового ИИ-помощника,
00:01:04и давайте посмотрим, сможет ли Hermes, самообучающийся ИИ-агент, заполнить эту пустоту. Я буду использовать его,
00:01:09чтобы создавать рекламные твиты на основе моих прошлых видео. И я дам ему
00:01:14несколько сценариев и указаний, чтобы дойти до этого этапа. Задача небольшая, но основной акцент
00:01:20на том, сможет ли Hermes запомнить мой стиль письма и все отзывы, которые я ему дам, чтобы создать
00:01:26твит, который мне понравится, без повторных просьб. Поехали. Итак, я уже
00:01:30установил Hermes с помощью этой команды — это очень просто, процесс включает всё,
00:01:35от выбора модели. Я выбрал OpenRouter с Gemma 4, но если бы мое «железо» позволяло,
00:01:40я бы запускал её локально и подключал к Hermes, платформам обмена сообщениями и инструментам CLI. Если вы
00:01:45пользовались OpenClaw, весь этот процесс покажется вам очень знакомым. Я также настроил его на VPS для
00:01:51безопасности, но при желании вы легко можете установить его локально на свой компьютер. Теперь
00:01:55я введу команду Hermes, которая запустит новый чат с символом Hermes и
00:01:59доступными инструментами и навыками здесь. Заметьте, когда вы запускаете команду Hermes, она создает
00:02:04новую сессию и не возобновляет предыдущую, если не указать это специально, как в Claude Code. Здесь я
00:02:08дам ему промпт. Я хочу, чтобы ты помог мне писать твиты на основе сценариев моих видео.
00:02:12Давайте пройдем через этот процесс. Через некоторое время он возвращается с ответом,
00:02:16структура которого мне нравится. И я даю ему уточняющий промпт. У меня есть сценарии
00:02:21в папке scripts, изучи их, чтобы понять мой стиль письма и манеру речи. Я также указал ему
00:02:25мою целевую аудиторию и желаемую длину твитов. Теперь он использует инструменты для поиска
00:02:30по моим файлам и через некоторое время анализирует сценарий, предоставляя разбор моего стиля.
00:02:34Он говорит, что я прагматичен и скептичен, и это правда. Я ориентирован на разработчиков, я честен
00:02:40и близок к аудитории. Он также предложил стратегию для целевой аудитории, которая мне нравится.
00:02:45Но я передумал. Хотя я и сказал, что хочу твиты длиной около 210 символов,
00:02:50на самом деле я хочу, чтобы они были немного длиннее. Поэтому я дам новый промпт. Я заметил,
00:02:54что это занимает время и потребляет много контекста. Я могу сменить модель прямо
00:02:59во время сессии, введя команду /model и указав нужную модель. В данном случае я хочу
00:03:04GLM-4-Flash. Теперь он переключился на эту модель. Я даю новый промпт, чтобы сделать
00:03:08твиты длиннее. И он возвращает ответ гораздо быстрее, а также добавил много информации
00:03:13в память без моего указания. Он изменил длину с 210 до 400 и обновил стиль
00:03:19твитов, который мне нужен. Посмотрим, смогу ли я сгенерировать достойный твит из моего последнего сценария.
00:03:23И у него получилась довольно приличная первая попытка, хотя есть несколько вещей, которые я бы лично
00:03:28не сказал, например «вспотеть», и я бы не использовал слово «невероятный». Я бы сказал
00:03:34«очень хороший». После нескольких правок он выдал твит, который я бы действительно
00:03:39опубликовал в профиле. И он сохранил всё это в памяти. Я попрошу его создать навык, чтобы мне было
00:03:44проще писать твиты в будущем. И теперь он использует менеджер навыков, чтобы пойти и создать
00:03:49навык. Посмотрим на это в действии. И посмотрите, он написал для меня твит с несколькими вариантами,
00:03:54и я могу выбрать тот, который мне больше нравится. Он даже создал тред, который я могу
00:03:59использовать, если захочу написать серию твитов. Технически, поскольку он всё запомнил,
00:04:04если я создам совершенно новую сессию Hermes, сменю модель по умолчанию и спрошу, знает ли он,
00:04:09как мне нравится писать твиты, он ответит, рассказав мне в точности,
00:04:14какой у меня стиль, вплоть до того, какие эмодзи я люблю использовать. Теперь вам может быть интересно, как Hermes
00:04:19удается извлекать всю эту информацию из памяти, не сжигая ваши токены. Что ж,
00:04:24память хранится во внешнем файле. Это либо ваш файл memory.md, либо внешний процессор,
00:04:30такой как Super Memory, Mem0 или Open Viking, если вы его настроите. Память загружается или подгружается каждую сессию.
00:04:38Но это не весь объем. На самом деле, это сжатая версия, ограниченная примерно
00:04:433500 символами, что составляет около 700 токенов в зависимости от модели. Но все сессии
00:04:49хранятся в базе данных SQLite с использованием FTS5 для полнотекстового поиска. Так что, если вы попросите Hermes
00:04:56вспомнить, что вы сказали вчера, он пойдет в базу данных, выполнит поиск и выдаст вам
00:05:01эту информацию. Он также делает одну странную вещь: сжимает вашу сессию при заполнении контекстного окна на 50%,
00:05:06в отличие от Claude Code, который делает это на 80%. Но, полагаю, сложно
00:05:11выбрать точный показатель для разных моделей, так что 50% — неплохое число. Но вместо того,
00:05:17чтобы просто сжимать всё подряд, он удаляет вывод старых вызовов инструментов, сохраняет начало
00:05:23и конец сессии, но сжимает середину. Именно это сохраняется в базе данных SQLite,
00:05:28а не весь разговор целиком. Он также делает пометки каждые 10 или около того ходов, чтобы сохранить важную
00:05:35информацию в память, а также чтобы записать навык, когда это необходимо. Я знаю, что
00:05:39очень трудно увидеть всю мощь Hermes в этой короткой демо-сессии, которую я показал, но,
00:05:44надеюсь, вы сможете экстраполировать, насколько хорошо он будет помнить и создавать навыки на основе
00:05:50вашей информации. И вообще, я собираюсь использовать его чаще. В этом месяце или, возможно,
00:05:54в следующем я сосредоточусь на использовании Hermes как основного личного помощника с очень дешевой моделью,
00:05:59такой как GLM, и я дам вам знать, как всё пойдет. Но, как обычно, пишите свои мысли в комментариях.
00:06:04Опять же, не забудьте подписаться, и до следующего раза, удачного коддинга.

Key Takeaway

Hermes объединяет динамическое создание навыков с гибридной системой памяти SQLite для обеспечения непрерывного самообучения без избыточного расхода токенов.

Highlights

Hermes — это агент с открытым исходным кодом от Nous Research, способный автоматически создавать новые навыки и обучаться в процессе взаимодействия.

Память агента хранится во внешнем файле memory.md или базах данных типа SQLite с использованием FTS5 для полнотекстового поиска.

Система сжимает контекст при заполнении окна на 50%, удаляя промежуточные выводы инструментов и сохраняя только начало и конец сессии.

Пользователь может мгновенно переключать языковые модели внутри одной сессии с помощью команды /model, например, для перехода на более дешевую GLM-4-Flash.

Основная рабочая память ограничена 3500 символами или примерно 700 токенами, что минимизирует затраты при сохранении контекста.

Агент извлекает стиль письма из локальных файлов сценариев и запоминает предпочтения по длине текста и использованию эмодзи для будущих сессий.

Timeline

Возможности самообучения и сравнение с аналогами

  • Hermes самостоятельно анализирует опыт использования и разрабатывает новые компетенции.
  • Архитектура агента ориентирована на открытость кода и гибкость в выборе языковых моделей через SDK.
  • Проверка способностей системы проводится на задаче создания рекламных твитов с соблюдением авторского стиля.

Проект Nous Research позиционируется как альтернатива OpenClaw и NanoClaw. Основное преимущество заключается в способности удерживать контекст без потерь и адаптироваться к специфическим правилам сторонних инструментов. Тестирование направлено на проверку памяти агента при получении отзывов и корректировок в реальном времени.

Процесс установки и настройка окружения

  • Установка выполняется одной командой и поддерживает интеграцию с OpenRouter или локальным оборудованием.
  • Безопасная работа обеспечивается развертыванием на VPS, хотя локальная установка на ПК также доступна.
  • Каждая стандартная команда запускает новую сессию, если не указаны параметры восстановления предыдущей.

Процедура настройки включает выбор модели, где оптимальным вариантом для мощного железа является локальный запуск. Инструментарий позволяет подключаться к мессенджерам и интерфейсам командной строки. Визуально интерфейс сессии выделяется специальным символом греческого бога-вестника.

Анализ стиля и динамическое управление моделями

  • Агент сканирует папку со скриптами для определения тональности, целевой аудитории и структуры текста.
  • Команда /model позволяет сменить текущий ИИ-движок без потери накопленных в текущем диалоге данных.
  • Hermes выявляет прагматичный и скептичный стиль автора, адаптируя длину сообщений под новые требования.

После анализа файлов агент предоставляет точный разбор манеры речи, ориентированной на разработчиков. В процессе работы длина твитов корректируется с 210 до 400 символов. Переход на модель GLM-4-Flash ускоряет получение ответов и снижает стоимость обработки длинных контекстов.

Автоматизация навыков и архитектура памяти

  • Функция Skill Manager позволяет упаковать цепочку успешных действий в многоразовый навык.
  • Внешнее хранилище памяти поддерживает интеграцию с процессорами Super Memory, Mem0 или Open Viking.
  • Полнотекстовый поиск в SQLite позволяет агенту извлекать детали из прошлых дней по прямому запросу.

Созданный навык написания твитов генерирует несколько вариантов текста и даже тематические треды. Память не сжигает токены основного окна, так как вынесена в отдельный файл memory.md. Даже в абсолютно новой сессии агент безошибочно воспроизводит предпочтительные эмодзи и специфические речевые обороты пользователя.

Механизмы сжатия и долгосрочное использование

  • Сжатие сессии происходит при достижении 50% заполнения контекстного окна.
  • Система удаляет логи вызовов инструментов, сохраняя только критически важные части диалога.
  • Записи в долговременную память вносятся автоматически каждые 10 ходов общения.

Метод сжатия отличается от Claude Code более агрессивным порогом срабатывания, что удобно для моделей с малым контекстом. Вместо сохранения всей истории в базу данных попадает только резюмированная информация. Дальнейшее использование Hermes в качестве основного ассистента предполагает эксплуатацию бюджетных моделей для экономии ресурсов.

Community Posts

View all posts