Hermes : L'agent auto-apprenant qui devient plus intelligent chaque jour

BBetter Stack
Computing/SoftwareSmall Business/StartupsInternet Technology

Transcript

00:00:00Hermes est un agent d'IA open-source créé par la société américaine Nous Research qui est
00:00:06auto-améliorant. En gros, plus vous l'utilisez, plus il devient performant. Il réfléchit,
00:00:10apprend et évolue seul, n'oublie jamais rien de ce que vous dites et crée même ses propres
00:00:16compétences. Mais est-ce suffisant pour remplacer OpenClaw, qui supporte
00:00:22plus de canaux, a un meilleur sandboxing et est plus mature ? Abonnez-vous et découvrons-le.
00:00:30Le nom Hermes, sans surprise, vient du dieu messager grec. Et c'est aussi
00:00:37de là que vient ce symbole. Vous en verrez plus plus tard dans la vidéo. En l'état,
00:00:42j'ai déjà fait une vidéo sur OpenClaw, qui est génial, mais a des fonctions que je n'utiliserai
00:00:47pas personnellement. Et NanoClaw, qui a moins de fonctions, mais est basé sur le
00:00:52SDK de l'agent Claude, ce qui est moins utile pour moi à cause des règles bizarres sur l'usage
00:00:59de l'abonnement Claude avec des outils tiers. Je cherche donc un nouvel assistant IA
00:01:04et voyons si Hermes, l'agent auto-améliorant, peut combler ce vide. Je vais l'utiliser
00:01:09pour créer des tweets promotionnels basés sur mes anciennes vidéos. Et je vais lui donner
00:01:14quelques scripts et directives pour y arriver. C'est une petite tâche, mais le but est
00:01:20surtout de voir si Hermes retient mon style d'écriture et mes retours pour créer
00:01:26un tweet qui me plaît sans avoir à lui redemander sans cesse. C'est parti. J'ai déjà
00:01:30installé Hermes avec cette commande, ce qui est très simple et a tout géré, du
00:01:35choix du modèle. J'ai choisi OpenRouter avec Gemma 4, mais si mon matériel le permettait,
00:01:40je l'exécuterais localement et le connecterais à Hermes, aux plateformes et outils CLI. Si vous
00:01:45avez utilisé OpenClaw, tout ce processus vous semblera très familier. Je l'ai aussi mis sur
00:01:51un VPS par sécurité, mais vous pourriez facilement l'installer localement sur votre machine. Ici,
00:01:55je vais taper la commande Hermes, qui lancera un nouveau chat montrant le symbole Hermes avec
00:01:59les outils et compétences disponibles ici. Notez que la commande Hermes crée une
00:02:04nouvelle session et ne reprend pas la précédente sauf précision, comme Claude Code. Ici,
00:02:08je vais lui donner un prompt. Je veux que tu m'aides à écrire des tweets basés sur mes scripts.
00:02:12Voyons comment ça se passe. Après un moment, il revient avec une réponse,
00:02:16dont j'aime la structure. Je vais donc lui donner un prompt de suivi. J'ai des scripts dans
00:02:21le dossier scripts, étudie-les pour comprendre mon style et ma voix. J'ai aussi indiqué
00:02:25mon public cible et la longueur souhaitée pour les tweets. Il utilise maintenant des outils pour
00:02:30fouiller mes fichiers et après un temps, il analyse mon script pour décomposer mon style.
00:02:34Il dit que je suis pragmatique et sceptique, ce qui est vrai. Axé développeur, transparent
00:02:40et accessible. Il a aussi proposé une stratégie pour mon public cible, qui me plaît.
00:02:45Mais j'ai changé d'avis. Même si j'avais dit vouloir des tweets d'environ 210 caractères,
00:02:50je les veux finalement un peu plus longs. Je vais donc lui donner un nouveau prompt. J'ai remarqué
00:02:54que c'était un peu lent et que ça consommait beaucoup de contexte. Je peux donc changer
00:02:59de modèle en cours de session avec la commande slash model en spécifiant celui voulu. Ici,
00:03:04je veux GLM 5 Turbo. Il a maintenant changé de modèle. Je lui donne le prompt pour des
00:03:08tweets plus longs. Il répond bien plus vite, mais a aussi ajouté beaucoup d'infos à sa
00:03:13mémoire sans que je lui demande. Il a passé la longueur de 210 à 400 et a changé le style
00:03:19de tweets voulu. Voyons si je peux générer un tweet correct pour mon dernier script.
00:03:23Il a proposé un premier essai assez correct, mais il y a des choses que je ne dirais pas
00:03:28personnellement comme "suer sang et eau" ou le mot "incroyable". Je dirais plutôt "très bon".
00:03:34Après quelques ajustements, il a produit un tweet que je pourrais vraiment utiliser sur mon
00:03:39profil. Et il a tout mémorisé. Je vais lui demander de créer une compétence pour qu'il soit plus
00:03:44facile d'écrire des tweets à l'avenir. Il utilise maintenant son gestionnaire pour créer cette
00:03:49compétence. Voyons ça en action. Et regardez, il a écrit un tweet avec plusieurs options,
00:03:54et je peux choisir celle que je préfère. Il a même créé un thread que je peux utiliser
00:03:59pour écrire plusieurs tweets si je veux. Donc techniquement, puisqu'il a tout retenu,
00:04:04si je crée une nouvelle session Hermes, que je change le modèle par défaut et lui demande s'il sait
00:04:09comment j'aime écrire mes tweets, il me répond en me disant exactement comment j'aime écrire
00:04:14mes tweets, jusqu'au type d'emojis que j'aime utiliser. Vous vous demandez peut-être comment
00:04:19Hermes peut extraire tout cela de sa mémoire sans brûler vos tokens. Eh bien,
00:04:24la mémoire est stockée dans un fichier externe. Votre fichier memory.md ou un processeur
00:04:30externe comme Super Memory, mem0 ou Open Viking si configuré. Elle est préchargée à chaque session.
00:04:38Mais pas entièrement. C'est en fait une version compactée limitée à environ trois mille
00:04:43cinq cents caractères, soit environ 700 tokens selon le modèle. Mais toutes les sessions
00:04:49sont stockées dans une base SQLite utilisant FTS5 pour la recherche plein texte. Si vous demandez à
00:04:56Hermes ce que vous avez dit hier, il ira dans la base de données, cherchera et vous donnera
00:05:01l'information. Il fait aussi un truc bizarre. Il compresse la session à 50 % de la fenêtre de contexte,
00:05:06contrairement à Claude Code qui le fait à 80 %. C'est dur de trouver la bonne mesure
00:05:11selon le modèle, donc 50 % est un bon chiffre. Mais au lieu de tout compresser,
00:05:17il supprime les sorties des anciens appels d'outils et garde le début et la fin de
00:05:23la session, mais compresse le milieu. C'est ce qui est sauvegardé dans la base SQLite,
00:05:28pas la conversation complète. Il se rappelle aussi toutes les 10 interactions environ de sauver les
00:05:35infos importantes en mémoire et de créer une compétence quand c'est nécessaire. Je sais qu'il est
00:05:39difficile de voir toute la puissance d'Hermes dans cette très courte démo, mais j'espère que
00:05:44vous pouvez imaginer à quel point il mémorisera et créera des compétences selon les infos
00:05:50données. Et en fait, je vais l'utiliser plus souvent. Ce mois-ci ou peut-être
00:05:54le mois suivant, je vais utiliser Hermes comme assistant principal avec un modèle très peu cher
00:05:59comme GLM et je vous dirai ce qu'il en est. Mais comme d'habitude, donnez-moi votre avis en commentaire.
00:06:04Encore une fois, n'oubliez pas de vous abonner et à la prochaine, bon code à tous.

Key Takeaway

L'agent Hermes automatise l'apprentissage continu en stockant les préférences stylistiques et les compétences personnalisées dans une base SQLite externe, permettant une personnalisation persistante sans saturer la fenêtre de contexte.

Highlights

Hermes est un agent d'IA open-source capable d'apprendre de manière autonome et de créer ses propres compétences au fil des interactions.

Le système compresse les sessions à 50 % de la fenêtre de contexte en supprimant les sorties des anciens outils pour optimiser la mémoire.

La mémoire est stockée dans un fichier externe memory.md ou via des processeurs comme Super Memory et Open Viking.

Toutes les sessions de l'agent sont conservées dans une base de données SQLite utilisant FTS5 pour permettre une recherche plein texte efficace.

L'agent déclenche automatiquement la sauvegarde des informations importantes et la création de compétences toutes les 10 interactions environ.

L'installation s'effectue via une commande simple permettant de connecter l'agent à des modèles locaux ou distants via OpenRouter.

Timeline

Nature et architecture de l'agent Hermes

  • Hermes est un agent IA auto-améliorant qui évolue de manière autonome sans intervention humaine constante.
  • Le nom de l'outil s'inspire du dieu messager grec et symbolise la transmission fluide d'informations.
  • L'agent vise à pallier les limitations de licence des outils tiers liés aux abonnements Claude officiels.

Cet agent open-source se distingue par sa capacité à ne jamais oublier les instructions passées et à développer de nouvelles aptitudes. Son utilité réside dans sa flexibilité par rapport à des alternatives plus rigides comme OpenClaw ou NanoClaw. L'objectif principal est de créer un assistant capable de reproduire un style d'écriture spécifique sans répétition de consignes.

Installation et configuration technique

  • L'installation se réalise par une commande unique gérant automatiquement la sélection du modèle et des dépendances.
  • Le système supporte l'exécution locale ou sur serveur virtuel (VPS) pour garantir la sécurité des données.
  • Chaque nouvelle commande Hermes initialise une session distincte, sauf mention contraire explicite.

La configuration permet d'utiliser des modèles variés tels que Gemma 4 via OpenRouter. La flexibilité du matériel détermine si l'exécution se fait localement ou via des API distantes. L'interface utilisateur affiche les outils et compétences disponibles dès le lancement de la session via un symbole distinctif.

Analyse de style et gestion des modèles

  • L'agent analyse les scripts existants dans des dossiers locaux pour décomposer la voix et le ton de l'utilisateur.
  • La commande slash model permet de changer de modèle de langage en pleine session pour ajuster la vitesse ou la précision.
  • Les retours utilisateur sur le vocabulaire permettent d'affiner les propositions futures en temps réel.

L'outil identifie des traits de personnalité comme le pragmatisme ou le scepticisme après avoir fouillé les fichiers fournis. Lors des tests, le passage au modèle GLM 5 Turbo a augmenté la vitesse de réponse malgré une consommation de contexte élevée. L'agent ajuste ses suggestions de tweets en remplaçant les termes jugés inadaptés, comme "incroyable", par des alternatives préférées comme "très bon".

Création de compétences et persistance

  • L'agent génère des compétences réutilisables pour automatiser des tâches répétitives comme l'écriture de threads.
  • La mémoire persiste entre les sessions, permettant à l'IA de se souvenir des emojis préférés lors d'un nouveau lancement.
  • Le gestionnaire de compétences permet de produire plusieurs options de contenu pour un même prompt initial.

La création d'une compétence transforme une série d'instructions complexes en une fonction simple. Cela permet à l'utilisateur de demander une tâche spécifique dans une nouvelle session sans avoir à redéfinir son public cible ou sa limite de caractères. L'IA démontre sa capacité de rétention en listant précisément les habitudes d'écriture mémorisées précédemment.

Mécanismes de stockage et compression de la mémoire

  • La mémoire compactée préchargée à chaque session est limitée à environ 3 500 caractères ou 700 tokens.
  • L'agent privilégie la conservation du début et de la fin de la session tout en compressant le milieu pour optimiser l'espace.
  • L'utilisation de SQLite avec FTS5 permet une récupération précise des informations datant des jours précédents.

Hermes évite le gaspillage de tokens en utilisant un stockage externe plutôt que de charger l'intégralité de l'historique dans la fenêtre de contexte. Contrairement à d'autres outils qui compressent à 80 %, Hermes adopte un seuil de 50 % pour garantir une marge de manœuvre au modèle. Le système nettoie également les journaux techniques des appels d'outils passés pour ne garder que la substance sémantique de la conversation.

Community Posts

View all posts