00:00:00Claude Code wurde am 22. Mai letzten Jahres allgemein verfügbar, zusammen mit dem Release von Claude 3.5.
00:00:06Davor gab es jedoch eine Research Preview, und so nutze ich das Tool
00:00:11schon seit etwas über einem Jahr. Ich habe es mal nachgerechnet: Wenn man die Zeit zählt,
00:00:15die ich mit Prompts, Code-Reviews und Monitoring verbracht habe, komme ich auf über 2000
00:00:21Stunden. Ich kann euch also einiges beibringen. Genau das möchte ich in diesem Video tun.
00:00:27Ich will heute meine praxiserprobten Strategien mit euch teilen, die euch
00:00:31vom einfachen Claude-Code-Nutzer zum Power-User machen. Ich habe alles im sogenannten
00:00:37WISC-Framework gebündelt. Und glaubt mir, diese Strategien sind echt. Ich bin keiner dieser
00:00:43KI-Content-Creator, die erst seit ein paar Monaten auf den Claude-Code-Zug aufgesprungen sind.
00:00:48Wie gesagt, ich nutze das Tool seit über einem Jahr täglich. Diese Strategien funktionieren
00:00:54bei jeder Codebasis, selbst bei riesigen Projekten mit mehreren Repositories. Ich habe das alles
00:01:00auf Enterprise-Ebene angewendet – egal woran ihr arbeitet, das hier ist für euch. Es
00:01:05funktioniert eigentlich mit jedem KI-Coding-Assistenten. Ich fokussiere mich auf Claude Code, weil es aktuell das beste Tool ist.
00:01:10Ich setze voraus, dass ihr bereits ein Grundverständnis von Claude Code habt und nun
00:01:15euer Level steigern wollt. Falls ihr die Grundlagen zum Aufbau eines Systems für KI-Coding sucht,
00:01:21verlinke ich euch hier ein passendes Video dazu. Diese Strategien sind für die Arbeit
00:01:25an echten, komplexen Codebasen gedacht, da wir hier viele Ansätze zum
00:01:32Kontext-Management behandeln. Das ist wichtig, denn "Context Rot" (Kontext-Verfall) ist derzeit das größte Problem bei KI-Assistenten.
00:01:38Es spielt keine Rolle, dass Claude Code jetzt ein Limit von einer Million Token hat – wir müssen
00:01:43unseren Kontext trotzdem als kostbarste Ressource behandeln, die wir sehr sorgfältig steuern müssen.
00:01:49Die Buchstaben W, I, S und C des Frameworks stehen für Strategien, die genau dort ansetzen
00:01:56und die ihr sofort in euren Projekten umsetzen könnt.
00:02:00Ich werde es euch hier ganz einfach aufschlüsseln. Ihr fragt euch jetzt vielleicht:
00:02:05"Cole, warum konzentrieren wir uns so sehr auf das Kontext-Management? Du hast über 2.000 Stunden
00:02:11Erfahrung mit Claude Code und das ist dein Fokus?" Meine Antwort lautet: Ja.
00:02:17Es ist ein sehr spezifisches Thema, aber wir müssen uns dem Kontext-Verfall widmen, um ihn zu vermeiden.
00:02:23Ich würde sogar behaupten, dass 80 % der Fehler, die ein KI-Agent in eurer Codebasis macht, darauf zurückzuführen sind,
00:02:28dass der Kontext nicht gut genug verwaltet wurde. Ich möchte mit dem Problem des Kontext-Verfalls beginnen
00:02:33und dann direkt in die Praxis des WISC-Frameworks eintauchen. Aber der Kontext-Verfall
00:02:38muss als Grundlage verstanden werden. Wenn ihr das WISC-Framework anwendet,
00:02:45werdet ihr sofort eine enorme Steigerung der Zuverlässigkeit beim KI-Coding bemerken, selbst bei unordentlichen
00:02:50Codebasen. Ich betone große, komplexe Projekte deshalb so oft, weil dort der Kontext-Verfall
00:02:56zu einem massiven Problem wird. Es gibt bereits viel Forschung in der Industrie dazu,
00:03:02aber mein Favorit – weil er am praktischsten und wohl auch am bekanntesten ist – ist der
00:03:07Chroma Technical Report. Er zeigt, wie die Erhöhung der Input-Token die Leistung von LLMs beeinflusst.
00:03:13Der Kernpunkt ist: Nur weil man eine gewisse Menge an Token in das Kontextfenster quetschen kann,
00:03:18heißt das noch lange nicht, dass man es tun sollte. Das gilt auch für Claude Code mit seinem 1-Million-Token-Limit.
00:03:24Denn Large Language Models werden von Informationen genauso überflutet wie Menschen. Man nennt das
00:03:30das "Nadel im Heuhaufen"-Problem. Wenn man eine sehr spezifische Information hat – oder beim Programmieren
00:03:35eine bestimmte Datei, die der Agent abrufen soll – dann klappt das im Kurzzeitgedächtnis der KI gut,
00:03:41aber eben nur, wenn das Kontextfenster nicht total überladen ist.
00:03:47Sobald der Kontext massiv wird, treten sogenannte "Distraktoren" auf.
00:03:52Das sind Informationen, die dem ähneln, was das LLM abrufen soll, aber eben nicht ganz korrekt sind.
00:03:58Das sehen wir beim KI-Coding ständig, besonders in großen Projekten. Wir nutzen oft dieselben Muster
00:04:04im gesamten Code. Es gibt viele Ähnlichkeiten in der Art und Weise,
00:04:09wie verschiedene Teile implementiert sind. Das führt dazu, dass LLMs die falschen Informationen ziehen,
00:04:14dabei aber sehr sicher in Bezug auf ihre Lösung oder Implementierung wirken. Ihr kennt das sicher.
00:04:19Dieses "Nadel im Heuhaufen"-Problem tritt beim KI-Coding ständig auf.
00:04:24Das ist das Konzept des Kontext-Verfalls. Je größer das Fenster wird, desto schwerer
00:04:30fällt es dem Modell, genau das herauszufiltern, was für den aktuellen Arbeitsschritt des Agenten nötig ist.
00:04:36Schauen wir uns das Diagramm an. Wir adressieren mit
00:04:42diesen Strategien die Frage: Wie halten wir das Kontextfenster so schlank wie möglich,
00:04:48während der Agent dennoch alle nötigen Infos erhält? Das ist das "Context Engineering",
00:04:53um das es hier geht. Ich werde jede einzelne Strategie durchgehen.
00:04:57Ich habe für jede ein Beispiel vorbereitet, das ich live an einer komplexen Codebasis zeige. Alle
00:05:02Befehle, Regeln und Dokumente, die ich als Beispiel nutze, findet ihr in dem Ordner, den ich
00:05:06in der Beschreibung verlinke. So könnt ihr die Strategien konzeptionell verstehen, aber auch direkt mit diesen
00:05:12Beispielbefehlen im ".claude"-Ordner arbeiten. Kommen wir nun zu den
00:05:17einzelnen Strategien. W steht für Write (Schreiben), I für Isolate (Isolieren), S für Select (Auswählen) und C für Compress (Komprimieren).
00:05:24Wir beginnen mit dem W: dem Schreiben bzw. dem Auslagern des Agenten-Gedächtnisses.
00:05:30Wir wollen so viele Schlüsselentscheidungen und Arbeitsschritte wie möglich festhalten,
00:05:34damit wir den Agenten in künftigen Sitzungen viel schneller auf den aktuellen Stand bringen können und weniger
00:05:40Token verbrauchen, um ihm zu erklären, was er eigentlich tun soll. Die erste Strategie
00:05:46hierbei ist: Nutzt das Git-Log als Langzeitgedächtnis. Ich liebe diesen Ansatz,
00:05:52weil viele Leute dazu neigen, alles zu verkomplizieren und super komplexe Memory-Frameworks für ihre
00:05:56Agenten bauen, obwohl eigentlich jeder bereits Git und GitHub für die Versionskontrolle nutzt.
00:06:01Wir können also ein Tool verwenden, das wir sowieso schon im Einsatz haben, um dem Agenten ein Langzeitgedächtnis zu geben.
00:06:07Gehen wir mal in die Codebasis und ich zeige euch, was ich meine.
00:06:12Die Codebasis für alle Beispiele hier ist das neue "Archon". Ich habe in den letzten Monaten
00:06:18hinter den Kulissen hart daran gearbeitet. Es ist euer KI-Kommandozentrum, in dem ihr länger
00:06:23laufende KI-Coding-Workflows erstellen, verwalten und ausführen könnt. Wir arbeiten sogar an einem Workflow-Builder.
00:06:28Es wird quasi das "n8n" für KI-Coding. Wir können Workflows starten,
00:06:33die Logs in unserem Control Center einsehen und überwachen. Wir können uns vergangene Durchläufe ansehen,
00:06:39um genau zu sehen, was passiert ist – wie dieser sehr lange Workflow zur Validierung von Pull Requests.
00:06:44Man sieht schon auf den ersten Blick – und es kommt bald noch viel mehr in Archon –
00:06:47dass es hier extrem viele bewegliche Teile gibt. Es ist eine sehr komplexe Codebasis.
00:06:51Das macht sie zum perfekten Beispiel für alles, was wir hier besprechen werden.
00:06:57Zum Thema Git als Langzeitgedächtnis zeige ich euch hier ein Beispiel für einen
00:07:03Einzeiler für alle meine letzten Commit-Messages. Wichtig dabei ist,
00:07:09dass wir eine sehr standardisierte Art haben, diese Nachrichten zu erstellen. Wir haben Merges,
00:07:13aber eben auch all diese Feature-Implementierungen und Fixes. Ich halte das sehr einheitlich,
00:07:19weil ich mich so darauf verlassen kann, dass die Commit-Messages dem Agenten genau sagen, woran ich zuletzt gearbeitet habe.
00:07:24Oft ist das die beste Orientierung für den nächsten Schritt. Dass ich das so
00:07:29standardisiert habe, liegt an einem speziellen Commit-Befehl. Ein normales "git commit" ist einfach,
00:07:36aber wenn wir die Nachricht standardisieren und uns dabei vom Agenten helfen lassen wollen,
00:07:40ist ein spezifischer Befehl extrem mächtig. Ich habe hier eine komplette Implementierung,
00:07:46die ich in einem einzigen Kontext-Fenster mit dem Agenten gemacht habe. Ich bin nun am Ende und
00:07:51bereit für den Commit. Wenn ich jetzt einfach "/commit" eingebe, war's das schon. Es wird ein Befehl ausgeführt,
00:07:55der die Dokumentation der Arbeit standardisiert. Außerdem wird alles erfasst,
00:08:01was ich an meinen Regeln oder Befehlen verbessert habe. Es ist ein zweiteiliger Befehl: Das haben wir gebaut, das haben wir am
00:08:06KI-Layer verbessert. Er erstellt jetzt den Commit und ich zeige euch danach das Ergebnis.
00:08:10Wenn wir uns die Nachricht ansehen, sehen wir Verbesserungen an den Tests
00:08:14für das CLI – ein schöner Präfix und dann die Details. Damit der Agent auch
00:08:19weiß, wie sich seine eigenen Regeln und Befehle über die Zeit entwickeln, inkludieren wir das
00:08:23in die Commit-Message, wann immer wir zum Beispiel unseren "Plan"-Befehl optimieren. Diesen
00:08:29Commit-Befehl findet ihr natürlich als Ressource im Repository. Ihr könnt ihn
00:08:33als Startpunkt nutzen, aber ich empfehle euch, das Format eurer Commit-Messages
00:08:37selbst anzupassen. Hauptsache, sie sind standardisiert und detailliert,
00:08:41damit sie als Langzeitgedächtnis taugen. Die zweite "Write"-Strategie lautet:
00:08:47Beginnt immer ein brandneues Kontextfenster, sobald ihr Code schreibt. Egal woran ich arbeite,
00:08:53mein Workflow ist immer: Eine Konversation zum Planen mit dem Agenten. Ich erstelle ein
00:08:57Markdown-Dokument mit meinem strukturierten Plan. Und das schicke ich dann als einzigen Kontext in eine
00:09:03neue Session für die Implementierung. Es ist entscheidend, dass eure Spezifikation alle
00:09:08Informationen enthält, die der Agent zum Schreiben und Validieren braucht. In diesem Chat zum Beispiel
00:09:14plane ich nur. Ich starte mit meinem "Prime"-Befehl – dazu gleich mehr.
00:09:18Ich lade Kontext und erstelle dann meinen Plan mit diesem Befehl. Das ist eine weitere Ressource,
00:09:24die ich euch bereitgestellt habe. Er führt den Agenten durch die exakte Struktur,
00:09:28die wir für unser einzelnes Markdown-Dokument wollen. So übertragen wir Wissen aus dem Kurzzeitgedächtnis
00:09:33in ein festes Dokument. Dann beenden wir die Sitzung. Wir öffnen ein
00:09:38neues Fenster und starten die Implementierung. Ich nutze meinen "Execute"-Befehl,
00:09:42gebe den Pfad zu meinem Plan an – und sonst keinen weiteren Kontext, da dieser alles Wichtige enthalten sollte.
00:09:48Das ist extrem wichtig, weil es den Agenten fokussiert hält. Zu viel Recherche-Material
00:09:53im selben Fenster würde die Implementierung nur unnötig verkomplizieren.
00:09:57Die letzte "W"-Strategie zur Externalisierung des Agenten-Speichers sind Fortschrittsdateien
00:10:03und Entscheidungsprotokolle. Man sieht das oft in komplexen KI-Frameworks, wo eine "handoff.md"
00:10:08oder "todo.md" zur Kommunikation zwischen Sub-Agenten oder Teams genutzt wird – oder eben zwischen Sessions.
00:10:13Wenn der Kontext knapp wird, sollte man eine Zusammenfassung des Erreichten erstellen.
00:10:17So kann man in einer frischen Session weitermachen, bevor der Agent wegen Kontext-Verfall
00:10:22in langen Unterhaltungen anfängt zu halluzinieren. Idealerweise vermeidet man
00:10:27solche langen Chats zwar, aber manchmal sind sie nötig. Bei Archon nutze ich zum Beispiel
00:10:33oft das "Vercel Agent Browser CLI" für End-to-End-Tests direkt im Browser.
00:10:38Dabei muss der Agent verschiedene User-Journeys und Edge-Cases durchspielen. Das verbraucht extrem viel
00:10:44Kontext. Ihr seht hier unten: Nach einem "/context"-Check sind wir bereits bei 200.000 von
00:10:49der neuen 1-Million-Grenze. Das füllt sich rasend schnell. Sobald man ein paar hunderttausend
00:10:56Token im Fenster hat, lässt die Leistung des Agenten spürbar nach. Deshalb nutze
00:11:01ich einfach "/handoff". Dieser Befehl erstellt ein Summary, das in eine neue
00:11:05Sitzung übergeben werden kann. Der neue Agent kann dort anknüpfen, ohne dass hunderttausende
00:11:11Token an Tool-Aufrufen und Altlasten sein Fenster blockieren. Dieser Handoff-Befehl
00:11:16definiert genau, was in das Dokument gehört, damit der nächste Agent
00:11:21nahtlos weiterarbeiten kann. Das war unser "W". Jede dieser Strategien ist
00:11:25wichtig, um Entscheidungen für künftige Sessions festzuhalten.
00:11:31Ich weiß, ich gehe hier schnell voran – schreibt mir in die Kommentare, wenn ich zu einer
00:11:36dieser Strategien ein eigenes, ausführliches Video machen soll. Das wäre bei jeder einzelnen möglich.
00:11:40Kommen wir nun zum "I" für Isolate (Isolieren) durch Sub-Agenten. Ich liebe Sub-Agenten für
00:11:45jegliche Recherche und nutze sie eigentlich in fast jeder Sitzung. Der Kernpunkt ist,
00:11:52den Hauptkontext sauber zu halten. Wir können Sub-Agenten nutzen, um zehntausende oder gar hunderttausende
00:11:56Token an Recherche in der Codebasis oder im Web durchzuführen. Am Ende übergeben sie nur
00:12:03die nötige Zusammenfassung an unser Hauptfenster in Claude Code. Statt also zehntausende
00:12:10Token Recherche-Material zu laden, sind es jetzt vielleicht nur noch 500 Token.
00:12:16Wir behalten die Kerninfos, erzielen aber laut Anthropic-Studien eine Verbesserung von über 90 %,
00:12:21wenn wir Sub-Agenten für die Vorab-Recherche nutzen, statt alles den Haupt-Agenten machen zu lassen.
00:12:28Hier ein kurzes Beispiel: Es passiert meist am Anfang eines Chats oder vor dem Strukturplan,
00:12:33den ich vorhin erwähnt habe. Während der Planung setze ich Sub-Agenten massiv ein. Schaut euch das an:
00:12:38"Ich möchte einen Workflow-Builder in Archon einbauen. Starte zwei Sub-Agenten:
00:12:43Einer macht eine umfassende Recherche in der Codebasis, wie wir das implementieren können.
00:12:50Der zweite macht eine Web-Recherche zu Best Practices für den Tech-Stack, zum Beispiel,
00:12:55welche React-Library wir nutzen sollten und wie Workflow-Builder wie n8n generell aufgebaut sind."
00:13:01Ich nutze hier mein Text-to-Speech-Tool, schicke den Prompt ab – und los geht's.
00:13:06Der Vorteil ist nicht nur die Isolierung, sondern auch die Geschwindigkeit, da die Sub-Agenten
00:13:12parallel arbeiten. Sie liefern ein Summary, mein Haupt-Agent fasst alles zusammen und ich treffe die Entscheidung.
00:13:16Beide Sub-Agenten laufen im Hintergrund. Wir können uns sogar die Logs für jeden ansehen.
00:13:21Am Ende kehren sie mit dem finalen Bericht zurück. So, die Sub-Agenten sind fertig.
00:13:26Statt hunderttausende Token im Hauptfenster zu verbrauchen – so viel haben sie nämlich
00:13:31für die Recherche gebraucht – haben wir nur 44.000 Token genutzt, also nur 4 % unseres Fensters.
00:13:36Das ist die Power von Sub-Agenten. Für die Implementierung empfehle ich sie nicht, da man
00:13:41dafür meist den vollen Kontext braucht. Aber für die Recherche sind sie unschlagbar.
00:13:46Isolation und Sub-Agenten sind also essenziell für die Planung. Eine weitere Methode ist
00:13:53das, was ich das "Scout-Pattern" nenne. Wir schicken Scouts vor, bevor wir den Hauptkontext festlegen.
00:13:57Vielleicht gibt es Teile der Codebasis oder Doku, die ein Sub-Agent erst mal sondieren soll,
00:14:04um zu entscheiden, ob sie für die aktuelle Session überhaupt relevant sind.
00:14:09So wird die Entscheidung vorab getroffen: Ja, das brauchen wir für die Planung, oder nein,
00:14:14das ist unwichtig. Bei Archon habe ich zum Beispiel einige Markdown-Dokumente, die sehr tief
00:14:21in bestimmte Code-Bereiche eintauchen. Das wollen wir nicht permanent in den Regeln haben, weil wir es selten brauchen.
00:14:25Aber manchmal ist es wichtig. Stellt euch das wie Infos in Confluence oder Google Drive vor.
00:14:30Im Hauptchat sage ich dann: "Starte einen Sub-Agenten, der die Dokumente in '.claude/docs' prüft.
00:14:36Gibt es dort Infos, die für unsere aktuelle Planung relevant sind?"
00:14:41Ich schicke das ab, er entscheidet und lädt nur das Nötige. Hier wurde ein
00:14:45"Explore-Sub-Agent" gestartet. Er hat die Doku gesichtet und empfohlen, ein bestimmtes Dokument zu laden.
00:14:48Ich habe zugestimmt, da es für unseren Plan entscheidend war. Statt also Sub-Agenten nur allgemein
00:14:54recherchieren zu lassen, nutzen wir sie gezielt, um unseren Hauptkontext schlank zu halten.
00:14:59Das war alles zum Thema Isolation. Nutzt Sub-Agenten intensiv für Recherche und Planung.
00:15:04Das führt uns zum "S" für Select (Auswählen): Ladet Kontext "just in time", nicht "just in case".
00:15:09Damit meine ich: Wenn ihr nicht zu 100 % sicher seid, dass eine Information jetzt gerade wichtig ist,
00:15:13dann ladet sie auch nicht. Wir nutzen dafür einen mehrschichtigen Ansatz. Den Anfang machen
00:15:18die globalen Regeln. Das sind Einschränkungen und Konventionen, die der Agent immer kennen sollte.
00:15:23Diese Datei sollte prägnant sein, ich peile meist zwischen 500 und 700 Zeilen an.
00:15:28Manche raten zu noch weniger, aber Dinge wie Architektur, wichtige Befehle, Test- und
00:15:34Logging-Strategien gehören hier rein. Das ist mein Beispiel von Archon – Dinge, die
00:15:40der Agent permanent wissen muss. Dann haben wir die zweite Ebene: Den
00:15:46"On-Demand-Kontext". Das sind Regeln, die nur für spezifische Teile der Codebasis gelten.
00:15:51Wenn wir am Frontend arbeiten – was wir ja nicht immer tun – gelten diese speziellen Regeln,
00:15:57oder eben spezielle Regeln für API-Endpunkte. Wir ergänzen die globalen Regeln also
00:16:02nur bei Bedarf um aufgabenspezifischen Kontext. Ein Beispiel dafür ist die
00:16:08Workflow-YAML-Referenz, die der Scout-Agent vorhin gefunden hat. Wenn wir an Workflows arbeiten,
00:16:12ist das wichtig, aber wir wollen es nicht in den globalen Regeln haben, da wir meistens
00:16:18an anderen Teilen von Archon arbeiten. Es ist reiner On-Demand-Kontext.
00:16:23Die dritte Ebene sind die "Skills". Das ist bei Claude Code gerade sehr populär.
00:16:28Es gibt verschiedene Phasen, in denen der Agent Anweisungen und Fähigkeiten eines Skills erkundet,
00:16:33sobald er merkt, dass er sie braucht. Es beginnt mit einer Kurzbeschreibung, die
00:16:38mit den globalen Regeln geladen wird und kaum Token verbraucht. Entscheidet sich der Agent für den Skill,
00:16:43lädt er die volle "skill.md", die wiederum auf Skripte oder weitere Dokumente verweisen kann.
00:16:48Als Beispiel habe ich meinen "Agent Browser Skill". Den nutze ich täglich für die
00:16:52Browser-Automatisierung und meine End-to-End-Tests. Wann immer ich solche Tests mache,
00:16:57lade ich dieses Instruction-Set, damit der Agent weiß, wie er den Browser bedienen muss.
00:17:05Als vierte Ebene habe ich schließlich die "Prime-Commands". Alles bisherige war statische
00:17:10Dokumentation, die wir ab und zu aktualisieren. Aber manchmal muss der Agent die
00:17:15aktuelle, Live-Codebasis erkunden. Wir müssen sicherstellen, dass seine Informationen brandaktuell sind,
00:17:20und investieren dafür vorab ein paar Token für Sub-Agenten. Genau das macht der
00:17:25Prime-Befehl: Er erkundet die Codebasis zu Beginn der Planung, damit der Agent
00:17:29versteht, worauf er aufbaut. In meinem "Commands"-Ordner habe ich verschiedene Prime-Befehle,
00:17:35da ich je nach Vorhaben unterschiedliche Teile des Codes priorisiere. Mein allgemeiner
00:17:40Prime-Befehl sieht so aus: Ich sage ihm einfach, er soll sich einen High-Level-Überblick
00:17:46über Archon verschaffen. Er liest Schritt für Schritt alles durch, inklusive Git-Log,
00:17:52da das für unser Langzeitgedächtnis wichtig ist. Ich habe auch spezialisierte Befehle wie
00:17:57"Prime Workflows", wenn ich am Workflow-Engine arbeite. Das Prinzip ist ähnlich, nur eben
00:18:02fokussierter. Ich nutze das am Start jedes Chats, damit der Agent sofort alles Nötige parat hat.
00:18:07Wenn er den Code verstanden hat, gehe ich in den Planungsprozess über.
00:18:11Kurze Zusammenfassung: Globale Regeln sind immer aktiv. On-Demand-Kontext nur bei spezifischen
00:18:16Code-Bereichen. Skills für zusätzliche Fähigkeiten, wie etwa End-to-End-Tests.
00:18:22Und Prime-Befehle laufen meist ganz am Anfang, um das Feld für die Planung zu bereiten.
00:18:27Das war alles zu "Select". Kommen wir nun zu "Compress" (Komprimieren) – der kürzeste Teil,
00:18:32denn wenn man die anderen drei Schritte gut umsetzt, sollte man Kompression kaum brauchen.
00:18:36Durch die anderen Strategien halten wir den Kontext so schlank, dass wir das hier vermeiden können,
00:18:41was gut ist, denn man sollte Kompression so weit wie möglich umgehen. Falls es doch nötig ist,
00:18:47gibt es zwei Ansätze: Den Handoff und die fokussierte Kompaktierung.
00:18:53Schauen wir uns das in Claude Code an. Den Handoff hatten wir schon bei den "Write"-Strategien.
00:18:58Wir fassen alles zusammen, um es an einen anderen Agenten zu übergeben – oder an denselben
00:19:03nach dem Aufräumen des Speichers. Dann gibt es noch den eingebauten "/compact"-Befehl
00:19:09in Claude Code. Er fasst den Chat zusammen, löscht den bisherigen Verlauf und setzt
00:19:13das Summary ganz oben in den Kontext. Der Handoff ist mächtiger, weil wir dort
00:19:18unseren eigenen Workflow zur Informationserhaltung definieren können. Aber "/compact"
00:19:22ist auch nützlich, zumal wir optionale Anweisungen für die Zusammenfassung geben können.
00:19:28Wenn ich komprimieren muss, nutze ich das immer so. Zum Beispiel: "Fokussiere dich
00:19:34auf die Edge-Cases, die wir gerade getestet haben". Dann achtet er beim Erstellen des
00:19:39Summarys verstärkt auf diesen Teil seines Kurzzeitgedächtnisses. Schreibfehler sind dabei kein Problem.
00:19:46Handoff und "/compact" sind oft Alternativen, aber manchmal nutze ich beides.
00:19:52Wenn ich mehr als zweimal komprimieren muss, ist der Chat meist zu überladen und es wird Zeit
00:19:56für eine frische Session per Handoff. Einmaliges Komprimieren ist meist okay.
00:20:02Nach einem "/compact" lasse ich mir vom Agenten oft noch mal kurz spiegeln, was er
00:20:06noch weiß, um sicherzugehen, dass alles Wichtige hängengeblieben ist.
00:20:12Aber wie gesagt: Ideal ist das nicht. Vermeidet Kompression, wo es nur geht.
00:20:18Die beste Strategie ist, sie gar nicht erst zu brauchen. Das war das WISC-Framework.
00:20:23Ich weiß, das war viel auf einmal. Ich hoffe, es hilft euch weiter. Lasst mich wissen, ob ich
00:20:28eine dieser Strategien mal in einem eigenen Video vertiefen soll.
00:20:34Das ist das WISC-Framework. Nutzt es, um euer Level in Claude Code
00:20:41oder jedem anderen KI-Assistenten zu steigern. Wenn euch das Video gefallen hat
00:20:48und ihr mehr über KI-Coding und den praktischen Einsatz solcher Frameworks
00:20:53erfahren wollt, freue ich mich sehr über ein Like und ein Abo. Wir sehen uns
00:20:58im nächsten Video! Moment, eine Sache habe ich noch für euch, die ihr nicht verpassen solltet.
00:21:03Am 2. April veranstalte ich einen kostenlosen Live-Workshop zur KI-Transformation auf meinem Kanal,
00:21:09zusammen mit Lior Weinstein, dem Gründer von CTOX. Das wird eine große Sache. Lior zeigt uns,
00:21:14wie man eine ganze Organisation für KI umstrukturiert, und ich zeige euch meine KI-Coding-Methodik,
00:21:19mit der ich zuverlässige und wiederholbare Systeme für meine Coding-Agenten baue.
00:21:24Den Link zur Seite packe ich in die Beschreibung. Da es live auf YouTube läuft, könnt ihr
00:21:30euch über diesen Button hier direkt benachrichtigen lassen. Wir sehen uns dort!
00:21:36framework. Je sais que c'était beaucoup, donc j'espère que cela vous a été utile et dites-moi s'il y a
00:21:41une stratégie particulière que vous souhaitez que j'approfondisse, car je pourrais faire une vidéo entière sur
00:21:46chacune de ces stratégies. Mais voici le framework Whisk. J'espère que vous pourrez l'utiliser pour passer au
00:21:52niveau supérieur avec Cloud Code ou n'importe quel assistant de codage IA. Et si vous avez trouvé cette vidéo utile
00:21:59et que vous attendez avec impatience plus de contenu sur le codage par IA et sur l'application de ce genre de
00:22:04frameworks en pratique, j'apprécierais vraiment un like et un abonnement. Sur ce, je vous verrai
00:22:09dans la prochaine vidéo. Psst ! J'ai une dernière chose très rapide pour vous que vous ne voulez pas manquer.
00:22:14Le 2 avril, j'anime un atelier gratuit sur la transformation par l'IA en direct sur ma chaîne YouTube avec
00:22:20Lior Weinstein, le fondateur de CTOX, et c'est un événement majeur. Lior va nous apprendre comment
00:22:27restructurer toute notre organisation pour l'IA, puis je vous apprendrai à maîtriser la méthodologie
00:22:32de codage par IA que j'utilise pour bâtir des systèmes fiables et reproductibles pour mes agents de code. Ainsi,
00:22:38je mettrai un lien dans la description vers cette page. Ce sera en direct sur ma chaîne YouTube, donc vous
00:22:42pouvez activer les notifications en cliquant sur ce bouton juste ici. On se voit là-bas !