Hermes: Der selbstoptimierende Agent, der jeden Tag schlauer wird

BBetter Stack
Computing/SoftwareSmall Business/StartupsInternet Technology

Transcript

00:00:00Hermes ist ein Open-Source-KI-Agent des amerikanischen Unternehmens Nous Research,
00:00:06der selbstverbessernd ist. Je mehr man ihn nutzt, desto besser wird er. Er reflektiert,
00:00:10lernt und entwickelt sich von selbst, vergisst nie Gesagtes und erstellt sogar eigene
00:00:16Fähigkeiten. Aber reicht das aus, um OpenClaw zu ersetzen, das mehr
00:00:22Kanäle unterstützt, besseres Sandboxing bietet und reifer ist? Abo da lassen und los geht's.
00:00:30Der Name Hermes kommt, Überraschung, vom griechischen Götterboten.
00:00:37Daher stammt auch dieses Symbol, das ihr später im Video noch öfter sehen werdet.
00:00:42Ich habe bereits ein Video über OpenClaw gemacht, das toll ist, aber viele Funktionen hat,
00:00:47die ich persönlich nicht nutze. Und NanoClaw, das einen kleineren Funktionsumfang hat,
00:00:52basiert auf dem Claude Agent SDK, das für mich wegen der seltsamen Regeln zur Nutzung
00:00:59des Claude-Abos mit Drittanbieter-Tools weniger nutzbar ist. Ich suche also einen neuen KI-Assistenten,
00:01:04und mal sehen, ob Hermes, der selbstverbessernde KI-Agent, diese Lücke füllen kann. Ich werde ihn
00:01:09nutzen, um Werbe-Tweets für mich zu erstellen, basierend auf meinen alten Videos.
00:01:14Dazu gebe ich ihm Skripte und Anweisungen. Das ist zwar eine kleine Aufgabe, aber der Fokus
00:01:20liegt darauf, ob Hermes sich an meinen Schreibstil und mein Feedback erinnert, um einen Tweet
00:01:26zu erstellen, der mir gefällt, ohne dass ich mich ständig wiederholen muss. Los geht's.
00:01:30Ich habe Hermes bereits mit diesem Befehl installiert, was sehr einfach war und alles
00:01:35abdeckte, von der Modellauswahl – ich nahm OpenRouter mit Gemma 4, aber wenn meine Hardware
00:01:40stärker wäre, würde ich es lokal laufen lassen – bis hin zu Messaging-Plattformen und CLI-Tools.
00:01:45Wer OpenClaw genutzt hat, dem wird der Prozess sehr bekannt vorkommen. Zur Sicherheit
00:01:51habe ich es auf einem VPS eingerichtet, aber man kann es auch problemlos lokal installieren.
00:01:55Ich gebe nun den Hermes-Befehl ein, der einen neuen Chat startet und das Symbol sowie
00:01:59verfügbare Tools und Skills anzeigt. Hinweis: Der Befehl startet eine neue Sitzung
00:02:04und setzt die vorherige nicht fort, sofern nicht anders angegeben – genau wie bei Claude Code.
00:02:08Hier ist mein Prompt: Ich möchte, dass du mir hilfst, Tweets basierend auf meinen Videoskripten zu schreiben.
00:02:12Schauen wir uns den Prozess an. Nach einer Weile kommt eine Antwort zurück,
00:02:16deren Struktur mir gefällt. Also gebe ich einen Folge-Prompt: Im Ordner "Scripts"
00:02:21liegen Skripte; analysiere sie, um meinen Schreibstil und Tonfall zu verstehen. Zudem habe ich
00:02:25meine Zielgruppe und die gewünschte Tweet-Länge angegeben. Er nutzt nun Tools,
00:02:30um meine Dateien zu durchsuchen, und liefert nach einer Weile eine Analyse meines Stils.
00:02:34Er sagt, ich sei pragmatisch und skeptisch, was stimmt. Ich bin entwicklerzentriert, transparent
00:02:40und nahbar. Er hat auch eine Strategie für meine Zielgruppe entworfen, die gut aussieht.
00:02:45Aber ich habe meine Meinung geändert. Obwohl ich etwa 210 Zeichen wollte,
00:02:50sollen sie nun doch etwas länger sein. Also gebe ich einen neuen Prompt. Mir ist aufgefallen,
00:02:54dass es lange dauert und viel Kontext verbraucht. Ich kann das Modell aber mitten
00:02:59in der Sitzung mit dem Slash-Befehl "model" ändern. In diesem Fall wähle ich
00:03:04GLM 5 Turbo. Jetzt wurde das Modell gewechselt. Mit dem neuen Prompt für längere Tweets
00:03:08kommt die Antwort viel schneller, und er hat auch viele Infos ungefragt in den Speicher
00:03:13übernommen. So wurde die Länge von 210 auf 400 geändert, ebenso wie der gewünschte
00:03:19Stil der Tweets. Mal sehen, ob ich einen guten Tweet aus meinem neuesten Skript generieren kann.
00:03:23Der erste Versuch ist ziemlich ordentlich, aber es gibt Dinge, die ich persönlich
00:03:28nicht so sagen würde, wie "ins Schwitzen kommen", und das Wort "unglaublich" würde ich durch
00:03:34"wirklich gut" ersetzen. Nach ein paar Anpassungen kam ein Tweet heraus, den ich so
00:03:39tatsächlich posten würde. Das wurde alles gespeichert. Ich fordere ihn nun auf, einen Skill zu erstellen,
00:03:44damit ich Tweets künftig leichter schreiben kann. Er nutzt den Skill-Manager,
00:03:49um diesen Skill anzulegen. Schauen wir uns das in Aktion an. Er hat einen Tweet mit mehreren
00:03:54Optionen geschrieben, aus denen ich wählen kann. Er hat sogar einen Thread erstellt,
00:03:59falls ich mehrere Tweets schreiben möchte. Da er sich an alles erinnert,
00:04:04kann ich eine brandneue Hermes-Sitzung starten, das Standardmodell ändern und ihn fragen,
00:04:09ob er weiß, wie ich meine Tweets schreibe. Er antwortet mir präzise,
00:04:14wie ich sie mag, bis hin zu den Emojis, die ich bevorzuge. Ihr fragt euch vielleicht,
00:04:19wie Hermes all diese Infos aus dem Speicher abruft, ohne Unmengen an Token zu verbrauchen.
00:04:24Nun, der Speicher liegt in einer externen Datei – entweder in einer "memory.md" oder bei
00:04:30Prozessoren wie Super Memory, mem0 oder Open Viking. Er wird pro Sitzung vorgeladen.
00:04:38Aber nicht komplett. Es ist eine komprimierte Version, limitiert auf etwa
00:04:433.500 Zeichen, was je nach Modell rund 700 Token entspricht. Alle Sitzungen
00:04:49werden in einer SQLite-Datenbank mit FTS5 für die Volltextsuche gespeichert. Wenn ihr Hermes
00:04:56also fragt, was ihr gestern gesagt habt, sucht er in der Datenbank nach dieser Information.
00:05:01Er macht auch etwas Eigenartiges: Er komprimiert die Sitzung ab 50 % des Kontextfensters,
00:05:06anders als Claude Code, das erst bei 80 % ansetzt. Das ist wohl je nach Modell schwer zu messen,
00:05:11daher sind 50 % ein guter Richtwert. Anstatt alles zu komprimieren,
00:05:17entfernt er die Ausgaben alter Tool-Aufrufe, behält Anfang und Ende der Sitzung bei
00:05:23und komprimiert nur den Mittelteil. Genau das wird in der SQLite-Datenbank gespeichert,
00:05:28nicht die volle Konversation. Er stößt sich zudem alle 10 Runden selbst an, wichtige Infos
00:05:35zu speichern oder bei Bedarf einen Skill zu schreiben. Ich weiß, es ist schwer,
00:05:39die volle Power von Hermes in dieser kurzen Demo zu sehen, aber hoffentlich
00:05:44könnt ihr erahnen, wie gut er sich Dinge merkt und Skills aus euren Infos erstellt.
00:05:50Ich werde ihn nun öfter nutzen. Diesen oder den nächsten Monat
00:05:54wird Hermes mein primärer persönlicher Assistent mit einem günstigen Modell wie GLM sein,
00:05:59und ich halte euch auf dem Laufenden. Aber wie immer: Schreibt mir eure Meinung in die Kommentare.
00:06:04Vergesst nicht zu abonnieren, und bis zum nächsten Mal: Happy Coding!

Key Takeaway

Der Open-Source-Agent Hermes ermöglicht durch automatische Skill-Erstellung und eine SQLite-basierte Speicherarchitektur eine dauerhafte Personalisierung, die über einzelne Sitzungen hinweg ohne hohen Token-Verbrauch bestehen bleibt.

Highlights

Hermes ist ein Open-Source-KI-Agent von Nous Research, der durch kontinuierliche Reflexion und eigenständiges Erlernen neuer Fähigkeiten eine permanente Selbstoptimierung erreicht.

Das System nutzt eine SQLite-Datenbank mit FTS5-Volltextsuche, um alle vergangenen Sitzungen dauerhaft abrufbar zu halten.

Der Langzeitspeicher wird in einer komprimierten Version von etwa 3.500 Zeichen vor jeder Sitzung geladen, was die Token-Kosten effizient begrenzt.

Hermes komprimiert den Kontext bereits ab einer Auslastung von 50 % des Kontextfensters, indem er alte Tool-Ausgaben entfernt und nur Anfang sowie Ende der Sitzung vollständig erhält.

Alle 10 Interaktionsrunden prüft das System automatisch, ob wichtige Informationen im Speicher gesichert oder neue automatisierte Skills erstellt werden müssen.

Nutzer können das zugrunde liegende KI-Modell während einer laufenden Sitzung über den Befehl /model wechseln, beispielsweise von Gemma 4 zu GLM 5 Turbo.

Timeline

Konzept und Positionierung von Hermes

  • Hermes unterscheidet sich von OpenClaw durch seinen Fokus auf kontinuierliche Selbstverbesserung und das eigenständige Erstellen von Fähigkeiten.
  • Das System adressiert Einschränkungen proprietärer SDKs wie jener von Claude, die die Nutzung von Abonnements über Drittanbieter-Tools reglementieren.
  • Die Kernfunktionalität liegt in der langfristigen Erinnerung an Schreibstile und spezifisches Feedback ohne ständige Wiederholungen durch den Nutzer.

Die Entwicklung zielt darauf ab, eine Lücke zwischen funktionsreichen, aber komplexen Agenten und eingeschränkten SDK-basierten Assistenten zu schließen. Der Name leitet sich vom griechischen Götterboten ab und symbolisiert die Rolle als Vermittler und Helfer. In praktischen Tests dient Hermes der Erstellung von Werbe-Tweets basierend auf vorhandenen Videoskripten, wobei die Konsistenz des persönlichen Tons im Vordergrund steht.

Installation und operative Anwendung

  • Die Einrichtung erfolgt über einen CLI-Befehl und unterstützt verschiedene Anbieter wie OpenRouter oder lokale Hardware.
  • Hermes analysiert lokale Dateistrukturen wie Skript-Ordner, um Tonfall und Zielgruppenstrategien eigenständig zu definieren.
  • Der Wechsel zwischen verschiedenen Sprachmodellen ist innerhalb einer aktiven Sitzung möglich, um Geschwindigkeit oder Kontextnutzung zu optimieren.

Die Installation umfasst die Auswahl des Modells und die Anbindung an Messaging-Plattformen. Während der Nutzung zeigt Hermes eine hohe Flexibilität, indem er Korrekturen am Schreibstil – etwa den Ersatz von 'ins Schwitzen kommen' durch 'wirklich gut' – sofort für zukünftige Aufgaben übernimmt. Das System agiert proaktiv und schlägt Strategien für Zielgruppen vor, die auf den analysierten Daten basieren.

Skill-Management und Automatisierung

  • Ein integrierter Skill-Manager erlaubt die dauerhafte Speicherung von Arbeitsabläufen als wiederverwendbare Werkzeuge.
  • Hermes generiert auf Anfrage komplexe Inhaltsstrukturen wie Twitter-Threads mit mehreren Auswahloptionen.
  • Neue Sitzungen greifen präzise auf Präferenzen wie bevorzugte Emojis aus früheren Konversationen zu.

Durch die Erstellung eines speziellen Skills für das Verfassen von Tweets wird der Prozess für den Nutzer vereinfacht. Hermes speichert nicht nur Fakten, sondern auch Nuancen des Stils. Selbst nach dem Start einer völlig neuen Sitzung erkennt der Agent die Vorlieben des Nutzers korrekt wieder, da die Informationen im Hintergrund persistent bleiben.

Technische Architektur des Speichers

  • Der externe Speicher wird in Dateien wie memory.md oder über spezialisierte Prozessoren wie mem0 verwaltet.
  • Die Kompression auf 700 Token stellt sicher, dass der Kontext für das Modell verarbeitbar bleibt, ohne das Fenster zu überfüllen.
  • Ein automatischer Trigger alle 10 Runden sichert die Datenintegrität und aktualisiert die Skill-Datenbank.

Die technische Effizienz wird durch die Nutzung einer SQLite-Datenbank mit FTS5 erreicht, die schnelle Suchanfragen über alle Sitzungshistorien ermöglicht. Im Gegensatz zu anderen Systemen startet die Kompression bereits bei 50 % des Kontextfensters, wobei unwichtige Tool-Outputs gelöscht werden, während der relevante Kern der Konversation erhalten bleibt. Dies macht Hermes zu einem kosteneffizienten Langzeit-Assistenten.

Community Posts

View all posts