Über 2.000 Stunden mit Claude Code – So baue ich damit alles

CCole Medin
컴퓨터/소프트웨어자격증/평생교육AI/미래기술

Transcript

00:00:00Claude Code wurde am 22. Mai letzten Jahres allgemein verfügbar, zusammen mit dem Release von Claude 3.5.
00:00:06Davor gab es jedoch eine Research Preview, und so nutze ich das Tool
00:00:11schon seit etwas über einem Jahr. Ich habe es mal nachgerechnet: Wenn man die Zeit zählt,
00:00:15die ich mit Prompts, Code-Reviews und Monitoring verbracht habe, komme ich auf über 2000
00:00:21Stunden. Ich kann euch also einiges beibringen. Genau das möchte ich in diesem Video tun.
00:00:27Ich will heute meine praxiserprobten Strategien mit euch teilen, die euch
00:00:31vom einfachen Claude-Code-Nutzer zum Power-User machen. Ich habe alles im sogenannten
00:00:37WISC-Framework gebündelt. Und glaubt mir, diese Strategien sind echt. Ich bin keiner dieser
00:00:43KI-Content-Creator, die erst seit ein paar Monaten auf den Claude-Code-Zug aufgesprungen sind.
00:00:48Wie gesagt, ich nutze das Tool seit über einem Jahr täglich. Diese Strategien funktionieren
00:00:54bei jeder Codebasis, selbst bei riesigen Projekten mit mehreren Repositories. Ich habe das alles
00:01:00auf Enterprise-Ebene angewendet – egal woran ihr arbeitet, das hier ist für euch. Es
00:01:05funktioniert eigentlich mit jedem KI-Coding-Assistenten. Ich fokussiere mich auf Claude Code, weil es aktuell das beste Tool ist.
00:01:10Ich setze voraus, dass ihr bereits ein Grundverständnis von Claude Code habt und nun
00:01:15euer Level steigern wollt. Falls ihr die Grundlagen zum Aufbau eines Systems für KI-Coding sucht,
00:01:21verlinke ich euch hier ein passendes Video dazu. Diese Strategien sind für die Arbeit
00:01:25an echten, komplexen Codebasen gedacht, da wir hier viele Ansätze zum
00:01:32Kontext-Management behandeln. Das ist wichtig, denn "Context Rot" (Kontext-Verfall) ist derzeit das größte Problem bei KI-Assistenten.
00:01:38Es spielt keine Rolle, dass Claude Code jetzt ein Limit von einer Million Token hat – wir müssen
00:01:43unseren Kontext trotzdem als kostbarste Ressource behandeln, die wir sehr sorgfältig steuern müssen.
00:01:49Die Buchstaben W, I, S und C des Frameworks stehen für Strategien, die genau dort ansetzen
00:01:56und die ihr sofort in euren Projekten umsetzen könnt.
00:02:00Ich werde es euch hier ganz einfach aufschlüsseln. Ihr fragt euch jetzt vielleicht:
00:02:05"Cole, warum konzentrieren wir uns so sehr auf das Kontext-Management? Du hast über 2.000 Stunden
00:02:11Erfahrung mit Claude Code und das ist dein Fokus?" Meine Antwort lautet: Ja.
00:02:17Es ist ein sehr spezifisches Thema, aber wir müssen uns dem Kontext-Verfall widmen, um ihn zu vermeiden.
00:02:23Ich würde sogar behaupten, dass 80 % der Fehler, die ein KI-Agent in eurer Codebasis macht, darauf zurückzuführen sind,
00:02:28dass der Kontext nicht gut genug verwaltet wurde. Ich möchte mit dem Problem des Kontext-Verfalls beginnen
00:02:33und dann direkt in die Praxis des WISC-Frameworks eintauchen. Aber der Kontext-Verfall
00:02:38muss als Grundlage verstanden werden. Wenn ihr das WISC-Framework anwendet,
00:02:45werdet ihr sofort eine enorme Steigerung der Zuverlässigkeit beim KI-Coding bemerken, selbst bei unordentlichen
00:02:50Codebasen. Ich betone große, komplexe Projekte deshalb so oft, weil dort der Kontext-Verfall
00:02:56zu einem massiven Problem wird. Es gibt bereits viel Forschung in der Industrie dazu,
00:03:02aber mein Favorit – weil er am praktischsten und wohl auch am bekanntesten ist – ist der
00:03:07Chroma Technical Report. Er zeigt, wie die Erhöhung der Input-Token die Leistung von LLMs beeinflusst.
00:03:13Der Kernpunkt ist: Nur weil man eine gewisse Menge an Token in das Kontextfenster quetschen kann,
00:03:18heißt das noch lange nicht, dass man es tun sollte. Das gilt auch für Claude Code mit seinem 1-Million-Token-Limit.
00:03:24Denn Large Language Models werden von Informationen genauso überflutet wie Menschen. Man nennt das
00:03:30das "Nadel im Heuhaufen"-Problem. Wenn man eine sehr spezifische Information hat – oder beim Programmieren
00:03:35eine bestimmte Datei, die der Agent abrufen soll – dann klappt das im Kurzzeitgedächtnis der KI gut,
00:03:41aber eben nur, wenn das Kontextfenster nicht total überladen ist.
00:03:47Sobald der Kontext massiv wird, treten sogenannte "Distraktoren" auf.
00:03:52Das sind Informationen, die dem ähneln, was das LLM abrufen soll, aber eben nicht ganz korrekt sind.
00:03:58Das sehen wir beim KI-Coding ständig, besonders in großen Projekten. Wir nutzen oft dieselben Muster
00:04:04im gesamten Code. Es gibt viele Ähnlichkeiten in der Art und Weise,
00:04:09wie verschiedene Teile implementiert sind. Das führt dazu, dass LLMs die falschen Informationen ziehen,
00:04:14dabei aber sehr sicher in Bezug auf ihre Lösung oder Implementierung wirken. Ihr kennt das sicher.
00:04:19Dieses "Nadel im Heuhaufen"-Problem tritt beim KI-Coding ständig auf.
00:04:24Das ist das Konzept des Kontext-Verfalls. Je größer das Fenster wird, desto schwerer
00:04:30fällt es dem Modell, genau das herauszufiltern, was für den aktuellen Arbeitsschritt des Agenten nötig ist.
00:04:36Schauen wir uns das Diagramm an. Wir adressieren mit
00:04:42diesen Strategien die Frage: Wie halten wir das Kontextfenster so schlank wie möglich,
00:04:48während der Agent dennoch alle nötigen Infos erhält? Das ist das "Context Engineering",
00:04:53um das es hier geht. Ich werde jede einzelne Strategie durchgehen.
00:04:57Ich habe für jede ein Beispiel vorbereitet, das ich live an einer komplexen Codebasis zeige. Alle
00:05:02Befehle, Regeln und Dokumente, die ich als Beispiel nutze, findet ihr in dem Ordner, den ich
00:05:06in der Beschreibung verlinke. So könnt ihr die Strategien konzeptionell verstehen, aber auch direkt mit diesen
00:05:12Beispielbefehlen im ".claude"-Ordner arbeiten. Kommen wir nun zu den
00:05:17einzelnen Strategien. W steht für Write (Schreiben), I für Isolate (Isolieren), S für Select (Auswählen) und C für Compress (Komprimieren).
00:05:24Wir beginnen mit dem W: dem Schreiben bzw. dem Auslagern des Agenten-Gedächtnisses.
00:05:30Wir wollen so viele Schlüsselentscheidungen und Arbeitsschritte wie möglich festhalten,
00:05:34damit wir den Agenten in künftigen Sitzungen viel schneller auf den aktuellen Stand bringen können und weniger
00:05:40Token verbrauchen, um ihm zu erklären, was er eigentlich tun soll. Die erste Strategie
00:05:46hierbei ist: Nutzt das Git-Log als Langzeitgedächtnis. Ich liebe diesen Ansatz,
00:05:52weil viele Leute dazu neigen, alles zu verkomplizieren und super komplexe Memory-Frameworks für ihre
00:05:56Agenten bauen, obwohl eigentlich jeder bereits Git und GitHub für die Versionskontrolle nutzt.
00:06:01Wir können also ein Tool verwenden, das wir sowieso schon im Einsatz haben, um dem Agenten ein Langzeitgedächtnis zu geben.
00:06:07Gehen wir mal in die Codebasis und ich zeige euch, was ich meine.
00:06:12Die Codebasis für alle Beispiele hier ist das neue "Archon". Ich habe in den letzten Monaten
00:06:18hinter den Kulissen hart daran gearbeitet. Es ist euer KI-Kommandozentrum, in dem ihr länger
00:06:23laufende KI-Coding-Workflows erstellen, verwalten und ausführen könnt. Wir arbeiten sogar an einem Workflow-Builder.
00:06:28Es wird quasi das "n8n" für KI-Coding. Wir können Workflows starten,
00:06:33die Logs in unserem Control Center einsehen und überwachen. Wir können uns vergangene Durchläufe ansehen,
00:06:39um genau zu sehen, was passiert ist – wie dieser sehr lange Workflow zur Validierung von Pull Requests.
00:06:44Man sieht schon auf den ersten Blick – und es kommt bald noch viel mehr in Archon –
00:06:47dass es hier extrem viele bewegliche Teile gibt. Es ist eine sehr komplexe Codebasis.
00:06:51Das macht sie zum perfekten Beispiel für alles, was wir hier besprechen werden.
00:06:57Zum Thema Git als Langzeitgedächtnis zeige ich euch hier ein Beispiel für einen
00:07:03Einzeiler für alle meine letzten Commit-Messages. Wichtig dabei ist,
00:07:09dass wir eine sehr standardisierte Art haben, diese Nachrichten zu erstellen. Wir haben Merges,
00:07:13aber eben auch all diese Feature-Implementierungen und Fixes. Ich halte das sehr einheitlich,
00:07:19weil ich mich so darauf verlassen kann, dass die Commit-Messages dem Agenten genau sagen, woran ich zuletzt gearbeitet habe.
00:07:24Oft ist das die beste Orientierung für den nächsten Schritt. Dass ich das so
00:07:29standardisiert habe, liegt an einem speziellen Commit-Befehl. Ein normales "git commit" ist einfach,
00:07:36aber wenn wir die Nachricht standardisieren und uns dabei vom Agenten helfen lassen wollen,
00:07:40ist ein spezifischer Befehl extrem mächtig. Ich habe hier eine komplette Implementierung,
00:07:46die ich in einem einzigen Kontext-Fenster mit dem Agenten gemacht habe. Ich bin nun am Ende und
00:07:51bereit für den Commit. Wenn ich jetzt einfach "/commit" eingebe, war's das schon. Es wird ein Befehl ausgeführt,
00:07:55der die Dokumentation der Arbeit standardisiert. Außerdem wird alles erfasst,
00:08:01was ich an meinen Regeln oder Befehlen verbessert habe. Es ist ein zweiteiliger Befehl: Das haben wir gebaut, das haben wir am
00:08:06KI-Layer verbessert. Er erstellt jetzt den Commit und ich zeige euch danach das Ergebnis.
00:08:10Wenn wir uns die Nachricht ansehen, sehen wir Verbesserungen an den Tests
00:08:14für das CLI – ein schöner Präfix und dann die Details. Damit der Agent auch
00:08:19weiß, wie sich seine eigenen Regeln und Befehle über die Zeit entwickeln, inkludieren wir das
00:08:23in die Commit-Message, wann immer wir zum Beispiel unseren "Plan"-Befehl optimieren. Diesen
00:08:29Commit-Befehl findet ihr natürlich als Ressource im Repository. Ihr könnt ihn
00:08:33als Startpunkt nutzen, aber ich empfehle euch, das Format eurer Commit-Messages
00:08:37selbst anzupassen. Hauptsache, sie sind standardisiert und detailliert,
00:08:41damit sie als Langzeitgedächtnis taugen. Die zweite "Write"-Strategie lautet:
00:08:47Beginnt immer ein brandneues Kontextfenster, sobald ihr Code schreibt. Egal woran ich arbeite,
00:08:53mein Workflow ist immer: Eine Konversation zum Planen mit dem Agenten. Ich erstelle ein
00:08:57Markdown-Dokument mit meinem strukturierten Plan. Und das schicke ich dann als einzigen Kontext in eine
00:09:03neue Session für die Implementierung. Es ist entscheidend, dass eure Spezifikation alle
00:09:08Informationen enthält, die der Agent zum Schreiben und Validieren braucht. In diesem Chat zum Beispiel
00:09:14plane ich nur. Ich starte mit meinem "Prime"-Befehl – dazu gleich mehr.
00:09:18Ich lade Kontext und erstelle dann meinen Plan mit diesem Befehl. Das ist eine weitere Ressource,
00:09:24die ich euch bereitgestellt habe. Er führt den Agenten durch die exakte Struktur,
00:09:28die wir für unser einzelnes Markdown-Dokument wollen. So übertragen wir Wissen aus dem Kurzzeitgedächtnis
00:09:33in ein festes Dokument. Dann beenden wir die Sitzung. Wir öffnen ein
00:09:38neues Fenster und starten die Implementierung. Ich nutze meinen "Execute"-Befehl,
00:09:42gebe den Pfad zu meinem Plan an – und sonst keinen weiteren Kontext, da dieser alles Wichtige enthalten sollte.
00:09:48Das ist extrem wichtig, weil es den Agenten fokussiert hält. Zu viel Recherche-Material
00:09:53im selben Fenster würde die Implementierung nur unnötig verkomplizieren.
00:09:57Die letzte "W"-Strategie zur Externalisierung des Agenten-Speichers sind Fortschrittsdateien
00:10:03und Entscheidungsprotokolle. Man sieht das oft in komplexen KI-Frameworks, wo eine "handoff.md"
00:10:08oder "todo.md" zur Kommunikation zwischen Sub-Agenten oder Teams genutzt wird – oder eben zwischen Sessions.
00:10:13Wenn der Kontext knapp wird, sollte man eine Zusammenfassung des Erreichten erstellen.
00:10:17So kann man in einer frischen Session weitermachen, bevor der Agent wegen Kontext-Verfall
00:10:22in langen Unterhaltungen anfängt zu halluzinieren. Idealerweise vermeidet man
00:10:27solche langen Chats zwar, aber manchmal sind sie nötig. Bei Archon nutze ich zum Beispiel
00:10:33oft das "Vercel Agent Browser CLI" für End-to-End-Tests direkt im Browser.
00:10:38Dabei muss der Agent verschiedene User-Journeys und Edge-Cases durchspielen. Das verbraucht extrem viel
00:10:44Kontext. Ihr seht hier unten: Nach einem "/context"-Check sind wir bereits bei 200.000 von
00:10:49der neuen 1-Million-Grenze. Das füllt sich rasend schnell. Sobald man ein paar hunderttausend
00:10:56Token im Fenster hat, lässt die Leistung des Agenten spürbar nach. Deshalb nutze
00:11:01ich einfach "/handoff". Dieser Befehl erstellt ein Summary, das in eine neue
00:11:05Sitzung übergeben werden kann. Der neue Agent kann dort anknüpfen, ohne dass hunderttausende
00:11:11Token an Tool-Aufrufen und Altlasten sein Fenster blockieren. Dieser Handoff-Befehl
00:11:16definiert genau, was in das Dokument gehört, damit der nächste Agent
00:11:21nahtlos weiterarbeiten kann. Das war unser "W". Jede dieser Strategien ist
00:11:25wichtig, um Entscheidungen für künftige Sessions festzuhalten.
00:11:31Ich weiß, ich gehe hier schnell voran – schreibt mir in die Kommentare, wenn ich zu einer
00:11:36dieser Strategien ein eigenes, ausführliches Video machen soll. Das wäre bei jeder einzelnen möglich.
00:11:40Kommen wir nun zum "I" für Isolate (Isolieren) durch Sub-Agenten. Ich liebe Sub-Agenten für
00:11:45jegliche Recherche und nutze sie eigentlich in fast jeder Sitzung. Der Kernpunkt ist,
00:11:52den Hauptkontext sauber zu halten. Wir können Sub-Agenten nutzen, um zehntausende oder gar hunderttausende
00:11:56Token an Recherche in der Codebasis oder im Web durchzuführen. Am Ende übergeben sie nur
00:12:03die nötige Zusammenfassung an unser Hauptfenster in Claude Code. Statt also zehntausende
00:12:10Token Recherche-Material zu laden, sind es jetzt vielleicht nur noch 500 Token.
00:12:16Wir behalten die Kerninfos, erzielen aber laut Anthropic-Studien eine Verbesserung von über 90 %,
00:12:21wenn wir Sub-Agenten für die Vorab-Recherche nutzen, statt alles den Haupt-Agenten machen zu lassen.
00:12:28Hier ein kurzes Beispiel: Es passiert meist am Anfang eines Chats oder vor dem Strukturplan,
00:12:33den ich vorhin erwähnt habe. Während der Planung setze ich Sub-Agenten massiv ein. Schaut euch das an:
00:12:38"Ich möchte einen Workflow-Builder in Archon einbauen. Starte zwei Sub-Agenten:
00:12:43Einer macht eine umfassende Recherche in der Codebasis, wie wir das implementieren können.
00:12:50Der zweite macht eine Web-Recherche zu Best Practices für den Tech-Stack, zum Beispiel,
00:12:55welche React-Library wir nutzen sollten und wie Workflow-Builder wie n8n generell aufgebaut sind."
00:13:01Ich nutze hier mein Text-to-Speech-Tool, schicke den Prompt ab – und los geht's.
00:13:06Der Vorteil ist nicht nur die Isolierung, sondern auch die Geschwindigkeit, da die Sub-Agenten
00:13:12parallel arbeiten. Sie liefern ein Summary, mein Haupt-Agent fasst alles zusammen und ich treffe die Entscheidung.
00:13:16Beide Sub-Agenten laufen im Hintergrund. Wir können uns sogar die Logs für jeden ansehen.
00:13:21Am Ende kehren sie mit dem finalen Bericht zurück. So, die Sub-Agenten sind fertig.
00:13:26Statt hunderttausende Token im Hauptfenster zu verbrauchen – so viel haben sie nämlich
00:13:31für die Recherche gebraucht – haben wir nur 44.000 Token genutzt, also nur 4 % unseres Fensters.
00:13:36Das ist die Power von Sub-Agenten. Für die Implementierung empfehle ich sie nicht, da man
00:13:41dafür meist den vollen Kontext braucht. Aber für die Recherche sind sie unschlagbar.
00:13:46Isolation und Sub-Agenten sind also essenziell für die Planung. Eine weitere Methode ist
00:13:53das, was ich das "Scout-Pattern" nenne. Wir schicken Scouts vor, bevor wir den Hauptkontext festlegen.
00:13:57Vielleicht gibt es Teile der Codebasis oder Doku, die ein Sub-Agent erst mal sondieren soll,
00:14:04um zu entscheiden, ob sie für die aktuelle Session überhaupt relevant sind.
00:14:09So wird die Entscheidung vorab getroffen: Ja, das brauchen wir für die Planung, oder nein,
00:14:14das ist unwichtig. Bei Archon habe ich zum Beispiel einige Markdown-Dokumente, die sehr tief
00:14:21in bestimmte Code-Bereiche eintauchen. Das wollen wir nicht permanent in den Regeln haben, weil wir es selten brauchen.
00:14:25Aber manchmal ist es wichtig. Stellt euch das wie Infos in Confluence oder Google Drive vor.
00:14:30Im Hauptchat sage ich dann: "Starte einen Sub-Agenten, der die Dokumente in '.claude/docs' prüft.
00:14:36Gibt es dort Infos, die für unsere aktuelle Planung relevant sind?"
00:14:41Ich schicke das ab, er entscheidet und lädt nur das Nötige. Hier wurde ein
00:14:45"Explore-Sub-Agent" gestartet. Er hat die Doku gesichtet und empfohlen, ein bestimmtes Dokument zu laden.
00:14:48Ich habe zugestimmt, da es für unseren Plan entscheidend war. Statt also Sub-Agenten nur allgemein
00:14:54recherchieren zu lassen, nutzen wir sie gezielt, um unseren Hauptkontext schlank zu halten.
00:14:59Das war alles zum Thema Isolation. Nutzt Sub-Agenten intensiv für Recherche und Planung.
00:15:04Das führt uns zum "S" für Select (Auswählen): Ladet Kontext "just in time", nicht "just in case".
00:15:09Damit meine ich: Wenn ihr nicht zu 100 % sicher seid, dass eine Information jetzt gerade wichtig ist,
00:15:13dann ladet sie auch nicht. Wir nutzen dafür einen mehrschichtigen Ansatz. Den Anfang machen
00:15:18die globalen Regeln. Das sind Einschränkungen und Konventionen, die der Agent immer kennen sollte.
00:15:23Diese Datei sollte prägnant sein, ich peile meist zwischen 500 und 700 Zeilen an.
00:15:28Manche raten zu noch weniger, aber Dinge wie Architektur, wichtige Befehle, Test- und
00:15:34Logging-Strategien gehören hier rein. Das ist mein Beispiel von Archon – Dinge, die
00:15:40der Agent permanent wissen muss. Dann haben wir die zweite Ebene: Den
00:15:46"On-Demand-Kontext". Das sind Regeln, die nur für spezifische Teile der Codebasis gelten.
00:15:51Wenn wir am Frontend arbeiten – was wir ja nicht immer tun – gelten diese speziellen Regeln,
00:15:57oder eben spezielle Regeln für API-Endpunkte. Wir ergänzen die globalen Regeln also
00:16:02nur bei Bedarf um aufgabenspezifischen Kontext. Ein Beispiel dafür ist die
00:16:08Workflow-YAML-Referenz, die der Scout-Agent vorhin gefunden hat. Wenn wir an Workflows arbeiten,
00:16:12ist das wichtig, aber wir wollen es nicht in den globalen Regeln haben, da wir meistens
00:16:18an anderen Teilen von Archon arbeiten. Es ist reiner On-Demand-Kontext.
00:16:23Die dritte Ebene sind die "Skills". Das ist bei Claude Code gerade sehr populär.
00:16:28Es gibt verschiedene Phasen, in denen der Agent Anweisungen und Fähigkeiten eines Skills erkundet,
00:16:33sobald er merkt, dass er sie braucht. Es beginnt mit einer Kurzbeschreibung, die
00:16:38mit den globalen Regeln geladen wird und kaum Token verbraucht. Entscheidet sich der Agent für den Skill,
00:16:43lädt er die volle "skill.md", die wiederum auf Skripte oder weitere Dokumente verweisen kann.
00:16:48Als Beispiel habe ich meinen "Agent Browser Skill". Den nutze ich täglich für die
00:16:52Browser-Automatisierung und meine End-to-End-Tests. Wann immer ich solche Tests mache,
00:16:57lade ich dieses Instruction-Set, damit der Agent weiß, wie er den Browser bedienen muss.
00:17:05Als vierte Ebene habe ich schließlich die "Prime-Commands". Alles bisherige war statische
00:17:10Dokumentation, die wir ab und zu aktualisieren. Aber manchmal muss der Agent die
00:17:15aktuelle, Live-Codebasis erkunden. Wir müssen sicherstellen, dass seine Informationen brandaktuell sind,
00:17:20und investieren dafür vorab ein paar Token für Sub-Agenten. Genau das macht der
00:17:25Prime-Befehl: Er erkundet die Codebasis zu Beginn der Planung, damit der Agent
00:17:29versteht, worauf er aufbaut. In meinem "Commands"-Ordner habe ich verschiedene Prime-Befehle,
00:17:35da ich je nach Vorhaben unterschiedliche Teile des Codes priorisiere. Mein allgemeiner
00:17:40Prime-Befehl sieht so aus: Ich sage ihm einfach, er soll sich einen High-Level-Überblick
00:17:46über Archon verschaffen. Er liest Schritt für Schritt alles durch, inklusive Git-Log,
00:17:52da das für unser Langzeitgedächtnis wichtig ist. Ich habe auch spezialisierte Befehle wie
00:17:57"Prime Workflows", wenn ich am Workflow-Engine arbeite. Das Prinzip ist ähnlich, nur eben
00:18:02fokussierter. Ich nutze das am Start jedes Chats, damit der Agent sofort alles Nötige parat hat.
00:18:07Wenn er den Code verstanden hat, gehe ich in den Planungsprozess über.
00:18:11Kurze Zusammenfassung: Globale Regeln sind immer aktiv. On-Demand-Kontext nur bei spezifischen
00:18:16Code-Bereichen. Skills für zusätzliche Fähigkeiten, wie etwa End-to-End-Tests.
00:18:22Und Prime-Befehle laufen meist ganz am Anfang, um das Feld für die Planung zu bereiten.
00:18:27Das war alles zu "Select". Kommen wir nun zu "Compress" (Komprimieren) – der kürzeste Teil,
00:18:32denn wenn man die anderen drei Schritte gut umsetzt, sollte man Kompression kaum brauchen.
00:18:36Durch die anderen Strategien halten wir den Kontext so schlank, dass wir das hier vermeiden können,
00:18:41was gut ist, denn man sollte Kompression so weit wie möglich umgehen. Falls es doch nötig ist,
00:18:47gibt es zwei Ansätze: Den Handoff und die fokussierte Kompaktierung.
00:18:53Schauen wir uns das in Claude Code an. Den Handoff hatten wir schon bei den "Write"-Strategien.
00:18:58Wir fassen alles zusammen, um es an einen anderen Agenten zu übergeben – oder an denselben
00:19:03nach dem Aufräumen des Speichers. Dann gibt es noch den eingebauten "/compact"-Befehl
00:19:09in Claude Code. Er fasst den Chat zusammen, löscht den bisherigen Verlauf und setzt
00:19:13das Summary ganz oben in den Kontext. Der Handoff ist mächtiger, weil wir dort
00:19:18unseren eigenen Workflow zur Informationserhaltung definieren können. Aber "/compact"
00:19:22ist auch nützlich, zumal wir optionale Anweisungen für die Zusammenfassung geben können.
00:19:28Wenn ich komprimieren muss, nutze ich das immer so. Zum Beispiel: "Fokussiere dich
00:19:34auf die Edge-Cases, die wir gerade getestet haben". Dann achtet er beim Erstellen des
00:19:39Summarys verstärkt auf diesen Teil seines Kurzzeitgedächtnisses. Schreibfehler sind dabei kein Problem.
00:19:46Handoff und "/compact" sind oft Alternativen, aber manchmal nutze ich beides.
00:19:52Wenn ich mehr als zweimal komprimieren muss, ist der Chat meist zu überladen und es wird Zeit
00:19:56für eine frische Session per Handoff. Einmaliges Komprimieren ist meist okay.
00:20:02Nach einem "/compact" lasse ich mir vom Agenten oft noch mal kurz spiegeln, was er
00:20:06noch weiß, um sicherzugehen, dass alles Wichtige hängengeblieben ist.
00:20:12Aber wie gesagt: Ideal ist das nicht. Vermeidet Kompression, wo es nur geht.
00:20:18Die beste Strategie ist, sie gar nicht erst zu brauchen. Das war das WISC-Framework.
00:20:23Ich weiß, das war viel auf einmal. Ich hoffe, es hilft euch weiter. Lasst mich wissen, ob ich
00:20:28eine dieser Strategien mal in einem eigenen Video vertiefen soll.
00:20:34Das ist das WISC-Framework. Nutzt es, um euer Level in Claude Code
00:20:41oder jedem anderen KI-Assistenten zu steigern. Wenn euch das Video gefallen hat
00:20:48und ihr mehr über KI-Coding und den praktischen Einsatz solcher Frameworks
00:20:53erfahren wollt, freue ich mich sehr über ein Like und ein Abo. Wir sehen uns
00:20:58im nächsten Video! Moment, eine Sache habe ich noch für euch, die ihr nicht verpassen solltet.
00:21:03Am 2. April veranstalte ich einen kostenlosen Live-Workshop zur KI-Transformation auf meinem Kanal,
00:21:09zusammen mit Lior Weinstein, dem Gründer von CTOX. Das wird eine große Sache. Lior zeigt uns,
00:21:14wie man eine ganze Organisation für KI umstrukturiert, und ich zeige euch meine KI-Coding-Methodik,
00:21:19mit der ich zuverlässige und wiederholbare Systeme für meine Coding-Agenten baue.
00:21:24Den Link zur Seite packe ich in die Beschreibung. Da es live auf YouTube läuft, könnt ihr
00:21:30euch über diesen Button hier direkt benachrichtigen lassen. Wir sehen uns dort!
00:21:36framework. Je sais que c'était beaucoup, donc j'espère que cela vous a été utile et dites-moi s'il y a
00:21:41une stratégie particulière que vous souhaitez que j'approfondisse, car je pourrais faire une vidéo entière sur
00:21:46chacune de ces stratégies. Mais voici le framework Whisk. J'espère que vous pourrez l'utiliser pour passer au
00:21:52niveau supérieur avec Cloud Code ou n'importe quel assistant de codage IA. Et si vous avez trouvé cette vidéo utile
00:21:59et que vous attendez avec impatience plus de contenu sur le codage par IA et sur l'application de ce genre de
00:22:04frameworks en pratique, j'apprécierais vraiment un like et un abonnement. Sur ce, je vous verrai
00:22:09dans la prochaine vidéo. Psst ! J'ai une dernière chose très rapide pour vous que vous ne voulez pas manquer.
00:22:14Le 2 avril, j'anime un atelier gratuit sur la transformation par l'IA en direct sur ma chaîne YouTube avec
00:22:20Lior Weinstein, le fondateur de CTOX, et c'est un événement majeur. Lior va nous apprendre comment
00:22:27restructurer toute notre organisation pour l'IA, puis je vous apprendrai à maîtriser la méthodologie
00:22:32de codage par IA que j'utilise pour bâtir des systèmes fiables et reproductibles pour mes agents de code. Ainsi,
00:22:38je mettrai un lien dans la description vers cette page. Ce sera en direct sur ma chaîne YouTube, donc vous
00:22:42pouvez activer les notifications en cliquant sur ce bouton juste ici. On se voit là-bas !

Key Takeaway

Das WISC-Framework optimiert die Arbeit mit Claude Code durch präzises Kontext-Engineering, um die Zuverlässigkeit und Effizienz bei der Entwicklung komplexer Softwareprojekte drastisch zu steigern.

Highlights

Einführung des WISC-Frameworks (Write, Isolate, Select, Compress) zur Vermeidung von Kontext-Verfall.

Bedeutung des Git-Logs als standardisiertes Langzeitgedächtnis für KI-Agenten.

Einsatz von Sub-Agenten zur Isolierung von Rechercheaufgaben, um das Haupt-Kontextfenster schlank zu halten.

Schichtweises Kontext-Management durch globale Regeln, On-Demand-Kontext, Skills und Prime-Befehle.

Strategien zur Minimierung des "Nadel im Heuhaufen"-Problems bei großen Codebasen.

Nutzung von Handoff-Dokumenten und dem /compact-Befehl für effiziente Sitzungsübergänge.

Timeline

Einführung und das Problem des Kontext-Verfalls

Der Sprecher Cole stellt seine Erfahrung von über 2.000 Stunden mit Claude Code vor und betont die Relevanz des Tools für Enterprise-Projekte. Er führt das WISC-Framework ein, welches speziell entwickelt wurde, um den sogenannten "Kontext-Verfall" zu bekämpfen. Obwohl Claude Code ein Limit von einer Million Token besitzt, muss der Kontext als kostbarste Ressource behandelt werden. Laut Cole sind etwa 80 % der KI-Fehler auf mangelndes Kontext-Management zurückzuführen. Dieses Video dient als Anleitung, um vom einfachen Nutzer zum Power-User aufzusteigen.

Wissenschaftliche Hintergründe zum Kontext-Management

In diesem Abschnitt wird das theoretische Fundament des Frameworks anhand des Chroma Technical Reports erläutert. Das Hauptproblem ist das "Nadel im Heuhaufen"-Phänomen, bei dem LLMs in überladenen Kontextfenstern relevante Informationen verlieren. Sogenannte "Distraktoren" führen dazu, dass die KI falsche, aber sicher wirkende Lösungen vorschlägt. Cole erklärt, dass "Context Engineering" notwendig ist, um die Leistung des Modells stabil zu halten. Ziel ist es, den Agenten nur mit den absolut notwendigen Daten zu füttern, um Halluzinationen zu vermeiden. Er kündigt zudem an, alle gezeigten Befehle und Ressourcen in einem verlinkten Repository bereitzustellen.

Die W-Strategie: Write - Das Gedächtnis auslagern

Das 'W' im Framework steht für 'Write' und fokussiert sich auf die Externalisierung des Agenten-Gedächtnisses. Cole demonstriert, wie man das Git-Log durch standardisierte Commit-Messages als Langzeitgedächtnis nutzt. Er empfiehlt, für jede Implementierung ein frisches Kontextfenster zu starten, das lediglich auf einem zuvor erstellten Markdown-Plan basiert. Durch den Einsatz von /handoff-Befehlen werden Fortschritte und Entscheidungen protokolliert, um lange, fehleranfällige Chats zu vermeiden. Diese Methode stellt sicher, dass der Agent immer eine klare, strukturierte Arbeitsgrundlage ohne unnötigen Ballast hat. Am Beispiel seines Projekts 'Archon' zeigt er die praktische Anwendung dieser Dokumentationsschritte.

Die I-Strategie: Isolate - Recherche durch Sub-Agenten

Unter 'Isolate' erklärt der Sprecher, wie Sub-Agenten dazu dienen, den Hauptkontext sauber zu halten. Anstatt hunderttausende Token für Recherchen im Hauptfenster zu verbrauchen, führen Sub-Agenten diese Aufgaben parallel aus und liefern nur kurze Zusammenfassungen zurück. Cole stellt das 'Scout-Pattern' vor, bei dem Scouts vorab prüfen, welche Dokumente oder Code-Teile für die aktuelle Aufgabe überhaupt relevant sind. Laut Studien von Anthropic verbessert dieser Ansatz die Zuverlässigkeit um über 90 %. Er warnt jedoch davor, Sub-Agenten für die eigentliche Implementierung zu nutzen, da hierfür meist der volle Kontext erforderlich ist. Die parallele Arbeitsweise spart zudem erheblich Zeit im Entwicklungsprozess.

Die S-Strategie: Select - Kontext Just-in-Time laden

Das 'S' steht für 'Select' und propagiert das Laden von Informationen 'just in time' statt 'just in case'. Cole beschreibt ein vierstufiges Modell bestehend aus globalen Regeln, On-Demand-Kontext, Skills und Prime-Commands. Globale Regeln enthalten grundlegende Konventionen, während On-Demand-Kontext nur bei Bedarf für spezifische Verzeichnisse geladen wird. Skills wie der 'Agent Browser' erweitern die Fähigkeiten des Agenten nur dann, wenn sie aktiv benötigt werden. Prime-Befehle dienen dazu, der KI zu Beginn einer Session einen aktuellen Überblick über die Live-Codebasis zu verschaffen. Durch diese Schichtung bleibt das Arbeitsgedächtnis der KI fokussiert und effizient.

Die C-Strategie: Compress und Fazit

Der letzte Teil des Frameworks, 'Compress', befasst sich mit der Komprimierung von Informationen, sollte der Kontext dennoch zu groß werden. Cole stellt den integrierten /compact-Befehl von Claude Code vor, rät jedoch dazu, Kompression nach Möglichkeit durch die vorherigen WISC-Schritte ganz zu vermeiden. Ein Handoff zu einer neuen Session ist oft effektiver als das bloße Zusammenfassen innerhalb eines überladenen Chats. Zum Abschluss fasst er die Vorteile des WISC-Frameworks zusammen und lädt die Zuschauer zu einem Live-Workshop am 2. April ein. Dieser Workshop wird sich mit der KI-Transformation von Organisationen und fortgeschrittenen Coding-Methodiken befassen. Er schließt das Video mit der Bitte um Interaktion und einem Ausblick auf zukünftige Inhalte ab.

Community Posts

View all posts