Hermes: El agente que mejora por sí solo y es cada día más inteligente

BBetter Stack
Computing/SoftwareSmall Business/StartupsInternet Technology

Transcript

00:00:00Bien, Hermes es un agente de IA de código abierto creado por la empresa estadounidense Nous Research que es
00:00:06automejorable. Básicamente, cuanto más lo usas, mejor se vuelve. Reflexiona,
00:00:10aprende y evoluciona por sí solo, nunca olvida nada de lo que has dicho e incluso crea sus propias
00:00:16habilidades. Pero, ¿es todo eso suficiente para reemplazar a algo como OpenClaw, que admite muchos
00:00:22más canales, tiene mejor sandboxing y es mucho más maduro? Suscríbete y entremos en detalles.
00:00:30Así que el nombre Hermes, para sorpresa de nadie, proviene del dios mensajero griego. Y de ahí
00:00:37también viene este símbolo. Verás más de él más adelante en el video. Pero tal como están las cosas,
00:00:42ya hice un video sobre OpenClaw, que es genial, pero tiene muchas funciones que yo
00:00:47personalmente no usaré. Y NanoClaw, que tiene un conjunto de funciones mucho más pequeño, pero está construido sobre el
00:00:52SDK del agente Claude, que ahora es menos útil para mí debido a las extrañas reglas sobre el uso de la
00:00:59suscripción de Claude con herramientas de terceros. Así que ahora estoy en busca de un nuevo asistente de IA
00:01:04y veamos si Hermes, el agente de IA automejorable, puede llenar ese vacío. Voy a usarlo
00:01:09para crear tuits promocionales para mí basados en videos pasados que he creado. Y le voy a dar
00:01:14algunos guiones e instrucciones para llegar a esa etapa. Ahora bien, esta es una tarea bastante pequeña, pero el enfoque es
00:01:20más para ver si Hermes puede recordar mi estilo de escritura y todos los comentarios que le voy a dar para crear
00:01:26un tuit que me guste sin que se lo pida una y otra vez. Vamos allá. Así que ya me he adelantado
00:01:30e instalado Hermes usando este comando, que es muy simple y pasó por todo, desde
00:01:35la elección de un modelo. Elegí OpenRouter con Gemma 4, pero si mi hardware pudiera soportarlo,
00:01:40lo ejecutaría localmente y lo conectaría a Hermes, plataformas de mensajería y herramientas para la CLI. Si
00:01:45has usado OpenClaw, todo este proceso te resultará muy familiar. También lo he configurado en un VPS para
00:01:51estar seguro, pero si quisieras, podrías instalarlo fácilmente de forma local en tu máquina. Así que desde aquí,
00:01:55voy a escribir el comando Hermes, que iniciará un nuevo chat mostrando el símbolo de Hermes con
00:01:59las herramientas y habilidades disponibles aquí. Nota: cuando ejecutas el comando Hermes, crea una nueva
00:02:04sesión y no reanuda la anterior a menos que lo especifiques, igual que Claude Code. Así que aquí le
00:02:08voy a dar un prompt. Quiero que me ayudes a escribir tuits basados en los guiones de mis videos.
00:02:12Pasemos por el proceso de hacer eso. Después de un rato, vuelve con una respuesta,
00:02:16cuya estructura me gusta. Y por eso le voy a dar un prompt de seguimiento. Tengo guiones dentro
00:02:21de la carpeta de guiones, estúdialos para entender mi estilo de escritura y mi voz. También le he dado mi
00:02:25público objetivo y la longitud que me gustaría que tuvieran mis tuits. Así que ahora está usando algunas herramientas para buscar
00:02:30a través de mis archivos y después de un rato analiza mi guion para darme un desglose de mi estilo.
00:02:34Dice que soy pragmático y escéptico, lo cual es cierto. Estoy centrado en el desarrollador y soy transparente
00:02:40y cercano. También ha propuesto una estrategia para mi público objetivo, que me gusta cómo se ve.
00:02:45Pero he cambiado de opinión. Aunque dije que quería que los tuits tuvieran unos 210 caracteres,
00:02:50en realidad quiero que sean un poco más largos. Así que le voy a dar un nuevo prompt. Y he notado
00:02:54que ha estado tardando un poco y usando mucho contexto. Así que lo que puedo hacer es cambiar el modelo a mitad
00:02:59de la sesión ejecutando el comando de barra invertida model y especificando el modelo que quiero. En este caso, quiero
00:03:04GLM 5 turbo. Así que ahora ha cambiado a ese modelo. Voy a darle un nuevo prompt para hacer los
00:03:08tuits más largos. Y vuelve con una respuesta mucho más rápida, pero también ha añadido mucha información a la
00:03:13memoria sin que yo se lo diga. Así que ha cambiado la longitud de 210 a 400 y ha cambiado el estilo
00:03:19de los tuits que quiero. Veamos si realmente puedo generar un tuit decente a partir de mi último guion.
00:03:23Y ha propuesto un primer intento bastante decente, pero hay algunas cosas que yo
00:03:28personalmente no diría como "romper a sudar" y no usaría la palabra "increíble". Usaría la frase "muy
00:03:34bueno". Y después de unos pocos ajustes ha propuesto un tuit que diría que realmente usaría en mi
00:03:39perfil. Y ha guardado todo eso en la memoria. Voy a pedirle que cree una habilidad. Así será más fácil para
00:03:44mí escribir tuits en el futuro. Y ahora usa la habilidad de gestor de habilidades para proceder y crear una
00:03:49habilidad. Veamos esto en acción. Y mira eso, ha escrito un tuit para mí con múltiples opciones,
00:03:54y puedo seleccionar la que más me guste. Incluso ha ido más allá y ha creado un hilo que puedo usar
00:03:59para escribir varios tuits si quisiera. Así que técnicamente, como lo ha recordado todo,
00:04:04si creo una sesión de Hermes totalmente nueva, cambio el modelo del predeterminado y le pregunto si sabe cómo
00:04:09me gusta escribir mis tuits, vuelve con una respuesta diciéndome exactamente cómo me gusta escribir
00:04:14mis tuits, hasta el tipo de emojis que me gusta usar. Ahora te preguntarás cómo es Hermes
00:04:19capaz de extraer toda esta información de la memoria sin agotar tus tokens. Bueno,
00:04:24la memoria se almacena en un archivo externo. Ya sea tu archivo memory.md o un procesador externo como
00:04:30super memory, mem0 u open viking si lo configuras. Y la memoria se precarga en cada sesión o se pre-recupera.
00:04:38Pero no es todo el contenido. De hecho, es una versión compactada que está limitada a unos tres
00:04:43mil quinientos caracteres, que son unos 700 tokens dependiendo del modelo. Pero todas las sesiones
00:04:49se almacenan dentro de una base de datos SQLite usando FTS5 para búsqueda de texto completo. Así que si le pides a Hermes que recuerde
00:04:56lo que dijiste ayer, irá a la base de datos, hará la búsqueda y te dará esa
00:05:01información. También hace algo un poco extraño. Comprime tu sesión por encima del 50% de la ventana de contexto,
00:05:06que es diferente a algo como Claude Code, que lo hace al 80%. Pero supongo que es difícil
00:05:11establecer una buena medida dependiendo del modelo. Así que el 50% es un buen número aproximado. Pero lo que hace es que en lugar
00:05:17de simplemente comprimirlo todo, elimina la salida de las llamadas a herramientas antiguas y mantiene el principio
00:05:23y el final de la sesión, pero comprime la parte intermedia. Esto es lo que realmente se guarda en la base de datos
00:05:28SQLite, no la conversación completa en sí. También se da un toque a sí mismo cada 10 turnos más o menos para guardar información
00:05:35importante en la memoria y también para escribir una habilidad cuando sea necesario. Ahora sé que es muy
00:05:39difícil ver todo el poder de Hermes en esta sesión de demostración tan corta que he dado, pero espero
00:05:44que puedas extrapolar lo bien que recordará y creará habilidades basadas en la información
00:05:50que le des. Y de hecho, voy a estar usándolo más a menudo. Así que este mes o tal vez el mes
00:05:54siguiente, me voy a centrar en usar Hermes como mi asistente personal principal con un modelo muy barato
00:05:59como GLM y os haré saber cómo va. Pero como de costumbre, dejadme vuestra opinión en los comentarios.
00:06:04De nuevo, no olvidéis suscribiros y hasta la próxima, feliz programación.

Key Takeaway

Hermes optimiza la asistencia personalizada mediante una arquitectura de memoria externa en SQLite y la capacidad de generar habilidades autónomas que se conservan entre sesiones independientes.

Highlights

Hermes es un agente de IA de código abierto diseñado por Nous Research que aprende de la interacción y crea sus propias habilidades mediante el uso continuo.

El sistema utiliza una base de datos SQLite con FTS5 para realizar búsquedas de texto completo sobre conversaciones pasadas y datos almacenados.

La memoria de trabajo se compacta automáticamente a un límite de 3500 caracteres, lo que equivale aproximadamente a 700 tokens para optimizar el consumo de recursos.

El agente comprime la sesión cuando se supera el 50% de la ventana de contexto, eliminando salidas de herramientas antiguas pero preservando el inicio y el final de la charla.

Hermes permite cambiar de modelo de lenguaje en mitad de una sesión mediante el comando model para ajustar la velocidad o el costo según la tarea.

Cada 10 turnos de conversación el sistema realiza un proceso de auto-reflexión para guardar información relevante en la memoria persistente.

Timeline

Naturaleza automejorable del agente Hermes

  • Hermes evoluciona y desarrolla habilidades personalizadas a través de la reflexión constante sobre los datos del usuario.
  • La plataforma permite la ejecución local en hardware propio o mediante servicios en la nube como VPS.
  • El sistema mantiene una persistencia de datos superior a herramientas que dependen de reglas restrictivas de suscripción de terceros.

Este agente de código abierto se distingue por su capacidad de no olvidar interacciones previas. Su diseño permite a los usuarios evitar las limitaciones impuestas por SDKs cerrados o modelos comerciales con reglas de uso cambiantes. El enfoque principal es la adaptabilidad del software al estilo y voz específicos de quien lo opera.

Configuración técnica y análisis de estilo

  • La instalación se realiza de manera sencilla mediante comandos CLI permitiendo la conexión a OpenRouter o modelos locales.
  • El agente analiza archivos locales en carpetas específicas para extraer patrones de escritura, tono y público objetivo.
  • Hermes identifica rasgos de personalidad en el texto como el pragmatismo, el escepticismo o la transparencia para replicarlos.

Durante la fase inicial, el sistema escanea guiones y documentos para definir una estrategia de contenido coherente. En las pruebas con guiones de video, el agente logra desglosar la voz del autor como centrada en el desarrollador y cercana. La flexibilidad técnica permite incluso migrar el funcionamiento de una máquina local a un servidor virtual para garantizar disponibilidad.

Optimización de modelos y creación de habilidades

  • El comando model facilita la transición a modelos más rápidos como GLM 5 turbo para reducir la latencia.
  • La función de gestor de habilidades permite al agente programar flujos de trabajo repetibles basados en instrucciones previas.
  • La memoria compartida permite que una sesión nueva reconozca preferencias detalladas como el uso específico de emojis o la longitud de los párrafos.

Si una tarea consume demasiado contexto o tiempo, la interfaz permite cambiar el motor de IA subyacente sin perder el hilo de la conversación. Al solicitar la creación de una habilidad, el agente genera un proceso automatizado que puede ofrecer múltiples variantes de un mismo producto, como tuits o hilos informativos. Esta persistencia es real incluso al cerrar y abrir sesiones de chat totalmente nuevas.

Arquitectura de memoria y gestión de contexto

  • La información se almacena fuera de la ventana de tokens principal utilizando archivos MD o procesadores externos como Mem0.
  • La compresión de contexto ocurre al alcanzar el 50% de la capacidad para mantener la eficiencia operativa.
  • El sistema depura el historial eliminando registros técnicos innecesarios de herramientas para priorizar la sustancia del diálogo.

Para evitar el agotamiento de tokens, Hermes emplea una base de datos SQLite que actúa como memoria a largo plazo. La búsqueda de texto completo permite recuperar datos de días anteriores de forma precisa. El método de compresión es selectivo: mantiene los puntos críticos de la interacción (inicio y fin) mientras resume la parte intermedia para ahorrar espacio sin sacrificar la coherencia del asistente.

Community Posts

View all posts