00:00:00Hermes ist ein Open-Source-KI-Agent des amerikanischen Unternehmens Nous Research,
00:00:06der selbstverbessernd ist. Je mehr man ihn nutzt, desto besser wird er. Er reflektiert,
00:00:10lernt und entwickelt sich von selbst, vergisst nie Gesagtes und erstellt sogar eigene
00:00:16Fähigkeiten. Aber reicht das aus, um OpenClaw zu ersetzen, das mehr
00:00:22Kanäle unterstützt, besseres Sandboxing bietet und reifer ist? Abo da lassen und los geht's.
00:00:30Der Name Hermes kommt, Überraschung, vom griechischen Götterboten.
00:00:37Daher stammt auch dieses Symbol, das ihr später im Video noch öfter sehen werdet.
00:00:42Ich habe bereits ein Video über OpenClaw gemacht, das toll ist, aber viele Funktionen hat,
00:00:47die ich persönlich nicht nutze. Und NanoClaw, das einen kleineren Funktionsumfang hat,
00:00:52basiert auf dem Claude Agent SDK, das für mich wegen der seltsamen Regeln zur Nutzung
00:00:59des Claude-Abos mit Drittanbieter-Tools weniger nutzbar ist. Ich suche also einen neuen KI-Assistenten,
00:01:04und mal sehen, ob Hermes, der selbstverbessernde KI-Agent, diese Lücke füllen kann. Ich werde ihn
00:01:09nutzen, um Werbe-Tweets für mich zu erstellen, basierend auf meinen alten Videos.
00:01:14Dazu gebe ich ihm Skripte und Anweisungen. Das ist zwar eine kleine Aufgabe, aber der Fokus
00:01:20liegt darauf, ob Hermes sich an meinen Schreibstil und mein Feedback erinnert, um einen Tweet
00:01:26zu erstellen, der mir gefällt, ohne dass ich mich ständig wiederholen muss. Los geht's.
00:01:30Ich habe Hermes bereits mit diesem Befehl installiert, was sehr einfach war und alles
00:01:35abdeckte, von der Modellauswahl – ich nahm OpenRouter mit Gemma 4, aber wenn meine Hardware
00:01:40stärker wäre, würde ich es lokal laufen lassen – bis hin zu Messaging-Plattformen und CLI-Tools.
00:01:45Wer OpenClaw genutzt hat, dem wird der Prozess sehr bekannt vorkommen. Zur Sicherheit
00:01:51habe ich es auf einem VPS eingerichtet, aber man kann es auch problemlos lokal installieren.
00:01:55Ich gebe nun den Hermes-Befehl ein, der einen neuen Chat startet und das Symbol sowie
00:01:59verfügbare Tools und Skills anzeigt. Hinweis: Der Befehl startet eine neue Sitzung
00:02:04und setzt die vorherige nicht fort, sofern nicht anders angegeben – genau wie bei Claude Code.
00:02:08Hier ist mein Prompt: Ich möchte, dass du mir hilfst, Tweets basierend auf meinen Videoskripten zu schreiben.
00:02:12Schauen wir uns den Prozess an. Nach einer Weile kommt eine Antwort zurück,
00:02:16deren Struktur mir gefällt. Also gebe ich einen Folge-Prompt: Im Ordner "Scripts"
00:02:21liegen Skripte; analysiere sie, um meinen Schreibstil und Tonfall zu verstehen. Zudem habe ich
00:02:25meine Zielgruppe und die gewünschte Tweet-Länge angegeben. Er nutzt nun Tools,
00:02:30um meine Dateien zu durchsuchen, und liefert nach einer Weile eine Analyse meines Stils.
00:02:34Er sagt, ich sei pragmatisch und skeptisch, was stimmt. Ich bin entwicklerzentriert, transparent
00:02:40und nahbar. Er hat auch eine Strategie für meine Zielgruppe entworfen, die gut aussieht.
00:02:45Aber ich habe meine Meinung geändert. Obwohl ich etwa 210 Zeichen wollte,
00:02:50sollen sie nun doch etwas länger sein. Also gebe ich einen neuen Prompt. Mir ist aufgefallen,
00:02:54dass es lange dauert und viel Kontext verbraucht. Ich kann das Modell aber mitten
00:02:59in der Sitzung mit dem Slash-Befehl "model" ändern. In diesem Fall wähle ich
00:03:04GLM 5 Turbo. Jetzt wurde das Modell gewechselt. Mit dem neuen Prompt für längere Tweets
00:03:08kommt die Antwort viel schneller, und er hat auch viele Infos ungefragt in den Speicher
00:03:13übernommen. So wurde die Länge von 210 auf 400 geändert, ebenso wie der gewünschte
00:03:19Stil der Tweets. Mal sehen, ob ich einen guten Tweet aus meinem neuesten Skript generieren kann.
00:03:23Der erste Versuch ist ziemlich ordentlich, aber es gibt Dinge, die ich persönlich
00:03:28nicht so sagen würde, wie "ins Schwitzen kommen", und das Wort "unglaublich" würde ich durch
00:03:34"wirklich gut" ersetzen. Nach ein paar Anpassungen kam ein Tweet heraus, den ich so
00:03:39tatsächlich posten würde. Das wurde alles gespeichert. Ich fordere ihn nun auf, einen Skill zu erstellen,
00:03:44damit ich Tweets künftig leichter schreiben kann. Er nutzt den Skill-Manager,
00:03:49um diesen Skill anzulegen. Schauen wir uns das in Aktion an. Er hat einen Tweet mit mehreren
00:03:54Optionen geschrieben, aus denen ich wählen kann. Er hat sogar einen Thread erstellt,
00:03:59falls ich mehrere Tweets schreiben möchte. Da er sich an alles erinnert,
00:04:04kann ich eine brandneue Hermes-Sitzung starten, das Standardmodell ändern und ihn fragen,
00:04:09ob er weiß, wie ich meine Tweets schreibe. Er antwortet mir präzise,
00:04:14wie ich sie mag, bis hin zu den Emojis, die ich bevorzuge. Ihr fragt euch vielleicht,
00:04:19wie Hermes all diese Infos aus dem Speicher abruft, ohne Unmengen an Token zu verbrauchen.
00:04:24Nun, der Speicher liegt in einer externen Datei – entweder in einer "memory.md" oder bei
00:04:30Prozessoren wie Super Memory, mem0 oder Open Viking. Er wird pro Sitzung vorgeladen.
00:04:38Aber nicht komplett. Es ist eine komprimierte Version, limitiert auf etwa
00:04:433.500 Zeichen, was je nach Modell rund 700 Token entspricht. Alle Sitzungen
00:04:49werden in einer SQLite-Datenbank mit FTS5 für die Volltextsuche gespeichert. Wenn ihr Hermes
00:04:56also fragt, was ihr gestern gesagt habt, sucht er in der Datenbank nach dieser Information.
00:05:01Er macht auch etwas Eigenartiges: Er komprimiert die Sitzung ab 50 % des Kontextfensters,
00:05:06anders als Claude Code, das erst bei 80 % ansetzt. Das ist wohl je nach Modell schwer zu messen,
00:05:11daher sind 50 % ein guter Richtwert. Anstatt alles zu komprimieren,
00:05:17entfernt er die Ausgaben alter Tool-Aufrufe, behält Anfang und Ende der Sitzung bei
00:05:23und komprimiert nur den Mittelteil. Genau das wird in der SQLite-Datenbank gespeichert,
00:05:28nicht die volle Konversation. Er stößt sich zudem alle 10 Runden selbst an, wichtige Infos
00:05:35zu speichern oder bei Bedarf einen Skill zu schreiben. Ich weiß, es ist schwer,
00:05:39die volle Power von Hermes in dieser kurzen Demo zu sehen, aber hoffentlich
00:05:44könnt ihr erahnen, wie gut er sich Dinge merkt und Skills aus euren Infos erstellt.
00:05:50Ich werde ihn nun öfter nutzen. Diesen oder den nächsten Monat
00:05:54wird Hermes mein primärer persönlicher Assistent mit einem günstigen Modell wie GLM sein,
00:05:59und ich halte euch auf dem Laufenden. Aber wie immer: Schreibt mir eure Meinung in die Kommentare.
00:06:04Vergesst nicht zu abonnieren, und bis zum nächsten Mal: Happy Coding!