Anthropic hat das 1M-Kontextfenster-Problem endlich gelöst

AAI LABS
Computing/SoftwareManagementInternet Technology

Transcript

00:00:00Das 1-Million-Token-Kontextfenster klingt nach einem riesigen Upgrade, aber in Wirklichkeit ist es viel schlimmer, als die meisten Leute ahnen.
00:00:05Und genau deshalb hat der Ingenieur Tarik, der an Claude Code arbeitet, den Artikel geschrieben.
00:00:09Wenn Sie denken, dass Claude Code erst bei 1 Million Token schlechter wird, oder dass 1 Million so viel ist, dass Sie sich keine Sorgen machen müssen, liegen Sie falsch.
00:00:17Die Verschlechterung beginnt tatsächlich viel früher als bei der Hälfte des Fensters.
00:00:21Und die Lösung, zu der die meisten greifen, nämlich Komprimierung, macht es meistens noch schlimmer.
00:00:24Am Ende dieses Videos werden Sie genau wissen, wie Sie verhindern, dass Claude Code dümmer wird – genau wie das Team bei Anthropic es macht.
00:00:31Claude Code fühlt sich degradiert an, obwohl die Modelle selbst eigentlich leistungsstark sind.
00:00:35Vielleicht ist Ihnen aufgefallen, dass es öfter halluziniert, immer wieder an Anweisungen erinnert werden muss, die Sie zuvor gegeben haben, und diese Anweisungen langfristig vergisst.
00:00:44Das haben wir auch bemerkt, als wir längere Aufgaben ausführten, und Claudes Leistung fühlte sich herabgestuft an.
00:00:48Aber es gibt einen triftigen Grund dafür.
00:00:50Mittlerweile werden alle Modelle nach Opus 4.5 mit einem 1-Million-Kontextfenster ausgeliefert, statt mit den vorherigen 200.000.
00:00:56Obwohl dieses Upgrade so klingt, als würden die meisten Probleme, die wir früher hatten, mit einem 1-Million-Kontextfenster verschwinden, klingt das nur in der Theorie gut.
00:01:03Denn jetzt können Sie mehr auf einmal in das Kontextfenster einfügen und es mit mehr Dokumenten und Informationen untermauern, damit Claude nicht vom Ziel abweicht.
00:01:12Ein 1-Million-Kontextfenster öffnet auch die Tür für lang laufende Aufgaben, ohne dass man sich zu sehr um die Kontextprobleme sorgen muss, die wir früher hatten.
00:01:19Aber die Sache ist, das alles ist nicht vollständig gelöst.
00:01:22Das 1-Million-Kontextfenster ist tatsächlich ein zweischneidiges Schwert.
00:01:26Es erlaubt Claude zwar, länger zu arbeiten und mehr Informationen auf einmal zu halten, aber das hat seinen Preis.
00:01:30Es öffnet die Tür für "Kontextverfall".
00:01:32Kontextverfall bedeutet, dass die Leistung des Modells mit mehr Informationen im Kontextfenster nachlässt, da es bei einem aufgeblähten Kontextfenster mehr Dinge gibt, auf die es achten muss, und es sich nicht konzentrieren kann.
00:01:42Und bei einem 1-Million-Kontextfenster wird Ihr Kontext viel voller, was bedeutet, dass viel mehr Informationen vorhanden sind, die Claudes logisches Denken stören, als das bei dem 200.000er-Kontextfenster der Fall war.
00:01:53Kontextverfall tritt auch nicht nur bei einem extrem aufgeblähten Kontext auf.
00:01:57Laut dem Schöpfer von Claude Code beginnt der Kontextverfall tatsächlich bei etwa 300.000 bis 400.000 Token, was viel weniger als eine Million ist, also bei nur etwa 40% Auslastung.
00:02:07Egal wie groß das Kontextfenster ist, wir müssen also etwas tun, um Kontextverfall zu verhindern.
00:02:11Und das Wissen darüber wird tatsächlich verändern, wie Sie mit dem 1-Million-Kontextfenster arbeiten.
00:02:15Nun eine kurze Zusammenfassung.
00:02:16Das Kontextfenster ist alles, was das Modell auf einmal sieht, einschließlich des bisherigen Gesprächs, der Claude.md-Datei, dem System-Prompt, eingelesenen Dateien und jeder Tool-Ausgabe.
00:02:26Jeder Prompt fügt mehr hinzu, und sobald das Fenster voll ist, fassen Sie zusammen, um mit einem frischeren Fenster fortzufahren – das ist Komprimierung.
00:02:32Wenn Sie den Kontext nicht richtig verwalten, gibt es vier Arten, wie Ihr Agent versagen kann.
00:02:37Dies wird bei lang laufenden Agenten noch deutlicher und problematischer.
00:02:40Kontextverschmutzung ist das erste Problem, das wir bereits besprochen haben und warum es auftritt.
00:02:45Ziel-Drift ist das zweite.
00:02:46Dies geschieht, wenn Ihr Agent vom eigentlichen Ziel abweicht, weil er zu viele Dinge hat, auf die er sich konzentrieren muss, oder einfacher gesagt, er hat die Ziele vergessen, auf die er hinarbeiten sollte.
00:02:55Das ist Ihnen vielleicht oft passiert, wenn Sie mit Claude Code arbeiten: Sie möchten, dass Ihre Benutzeroberfläche auf eine bestimmte Weise aussieht, haben das bereits festgelegt, aber es folgt dem nicht und Sie müssen es an das eigentliche Ziel erinnern.
00:03:05Speicherkorruption ist das dritte, und es tritt auf, wenn während der Ausführung der interne Zustand des Agenten oder gespeicherte Fakten inkorrekt werden und er weiterhin auf Basis dieses fehlerhaften Zustands agiert.
00:03:14Es ist oft schwer, die genaue Ursache zu lokalisieren, wenn Agenten über lange Zeiträume laufen; es wird unklar, wo der Fehler entstanden ist.
00:03:21Speicherkorruption kann zum Beispiel so aussehen, dass eine Datei vom Agenten selbst auf eine Weise geschrieben und dann von einem Sub-Agenten modifiziert wird, der sich nicht im aktuellen Kontext befindet.
00:03:29Der Agent bezieht sich auf seinen eigenen veralteten Speicher und arbeitet so weiter, als existiere die Datei noch in der ursprünglichen Form.
00:03:37Entscheidungsungenauigkeit ist das letzte Problem.
00:03:39Es tritt auf, wenn ein Agent in nahezu identischen Situationen widersprüchliche Entscheidungen trifft, etwa wenn er an einer Stelle ein anderes Fehlerbehandlungsmuster verwendet als an einer anderen.
00:03:48All diese Probleme treten auf, wenn der Kontext nicht richtig verwaltet wird, und sie beeinträchtigen die langfristige Leistung von Agenten.
00:03:53Das sind genau die Faktoren, die die meisten Agenten-Frameworks zu optimieren versuchen.
00:03:57Wenn Sie Claude also gebeten haben, etwas zu tun, und es fertig ist, gibt es eigentlich fünf Möglichkeiten, was als Nächstes passiert, bezogen auf Ihre nächste Anweisung.
00:04:06Jede hängt davon ab, was Ihr nächster Prompt ist.
00:04:08Wenn Sie jede richtig nutzen, kann sich Ihre Arbeit mit Claude stark verbessern.
00:04:12Obwohl es am natürlichsten ist, einfach fortzufahren, helfen Ihnen die anderen Optionen tatsächlich, Ihren Kontext effektiver zu verwalten.
00:04:18Sie müssen also sorgfältig entscheiden, ob Sie wirklich im selben Ablauf weitermachen oder eine neue Sitzung starten wollen.
00:04:24Sobald der Kontext aufgebläht ist, haben Sie zwei Möglichkeiten, den Kontext zu leeren. Die erste Wahl ist die Komprimierung, die wir bereits als Zusammenfassung des vorhandenen Inhalts erklärt haben.
00:04:32Aber Sie müssen sich im Klaren darüber sein, wann Sie tatsächlich zusammenfassen wollen, da die Zusammenfassung verlustbehaftet ist und viele Details, die für Sie wichtig aussehen, für Claude aber nicht wichtig sein könnten, verloren gehen können.
00:04:41Infolgedessen ist wichtiger Kontext möglicherweise nicht mehr im Kontextfenster vorhanden.
00:04:44Es ist besser, die Komprimierung selbst zu steuern, anstatt Claude die automatische Komprimierung überlassen, denn wenn sie mitten in einer Aufgabe ausgelöst wird, wird die Komprimierung noch unsauberer.
00:04:52Es neigt dazu, das zu behalten, was es für wichtig hält, und alles zu entfernen, von dem es glaubt, dass es nicht benötigt wird; Claude ist also während der Komprimierung am wenigsten zuverlässig.
00:05:00An diesem Punkt konzentriert sich Claude rein auf die Zusammenfassung und ist von unterstützendem Kontext befreit, wie dem System-Prompt und anderen Elementen, die es normalerweise leistungsfähiger machen.
00:05:08Es verlässt sich dann stark auf eigene Annahmen darüber, was wichtig ist, was oft zu schlechten Komprimierungsentscheidungen führen kann.
00:05:14Schlechte Komprimierung passiert normalerweise, wenn das Modell die Richtung Ihrer Arbeit nicht klar bestimmen kann.
00:05:19Wenn Sie sich zum Beispiel in einer langen Debugging-Sitzung befinden und es gab zuvor nach der automatischen Komprimierung eine Warnung, und Sie bitten es, genau diese Warnung zu beheben, wird es nicht wissen, von welcher Warnung Sie sprechen.
00:05:29Dies geschieht, weil sich die Sitzung auf das Debugging als Ganzes konzentrierte, sodass nur eine allgemeine Zusammenfassung der Debugging-Aktivität beibehalten wurde und die spezifische Warnung als Rauschen behandelt und gelöscht wurde.
00:05:39"Recency Bias" (Aktualitätsverzerrung) macht es noch schlimmer.
00:05:41Wenn eine Komprimierung ausgelöst wird, priorisiert der Prompt die Bewahrung aktueller Details dessen, woran gerade gearbeitet wurde.
00:05:46Ältere, aber dennoch wichtige Informationen können also ignoriert oder weggelassen werden.
00:05:50Wenn etwas früher falsch gemacht wurde, weiß das Modell nach der Komprimierung möglicherweise nichts mehr davon.
00:05:54Es hat nur Zugriff auf die Zusammenfassung auf Transkript-Ebene, nicht auf den vollständigen Zustand des Projekts, da der Tool-Call-Verlauf während der Komprimierung nicht vollständig erhalten bleibt.
00:06:01Sie können Flags setzen, um zu steuern, wann die automatische Komprimierung erfolgt, aber das ist etwas, das Sie öfter aktiv verwalten sollten.
00:06:07Lösen Sie die Komprimierung im Bereich von 300.000 bis 400.000 aus, wie vom Schöpfer erwähnt, da dort normalerweise Kontextverfall auftritt, und geben Sie immer selbst eine Komprimierungsanweisung, da Claude vorsichtiger reagiert, wenn explizite Anweisungen enthalten sind.
00:06:22Sagen Sie ihm, welche Entscheidungen, Einschränkungen und entdeckten Probleme er übernehmen soll, damit er weiß, was zu priorisieren ist.
00:06:27Sie sollten also auf "Komprimieren" klicken, wenn Sie den Kontext aus dem vorherigen Aufgabenfluss tatsächlich in das neue Fenster übernehmen möchten, nicht wenn Sie einen Neuanfang wünschen.
00:06:34Aber bevor wir weitermachen, ein Wort von unserem Sponsor.
00:06:37Verdant, eine KI-gestützte Plattform, die Entwicklern hilft, Ideen in fertige Produkte zu verwandeln.
00:06:41Sie sind mitten im Aufbau, endlich voll konzentriert, und Ihre Credits sind aufgebraucht.
00:06:45Ihre KI bleibt stehen, der Schwung ist weg.
00:06:47Jedes KI-Codierungstool macht das mit Ihnen, aber Verdant nicht.
00:06:50Wenn Ihre Credits bei null sind, wechseln Sie einfach in den Eco-Modus, einen kostenlosen Modus, der Ihre KI weiterlaufen lässt, ohne einen weiteren Dollar auszugeben.
00:06:56Keine Unterbrechung, kein Aufladen, kein verlorener Schwung.
00:06:59Sie bauen einfach weiter.
00:07:00Und wenn Sie Credits haben, müssen Sie sich nicht zwischen Claude, GPT oder Gemini entscheiden.
00:07:04Der Multi-Plan-Modus von Verdant lässt alle drei zusammen wie ein Entscheidungskomitee laufen und liefert Ihnen bessere Pläne ohne Modell-Angst.
00:07:10Wollen Sie noch mehr Flexibilität?
00:07:11Mit BYOK können Sie Ihren eigenen API-Schlüssel direkt in Verdant einfügen.
00:07:15Nutzen Sie die Claude- oder GPT-Credits Ihres Unternehmens, keine Plattformgebühren.
00:07:18Sie zahlen nur für das, was Sie tatsächlich nutzen.
00:07:20Sie erhalten 100 Credits und 7 Tage Zeit, es zu testen.
00:07:23Klicken Sie auf den Link im angepinnten Kommentar und probieren Sie Verdant kostenlos aus.
00:07:26Die zweite Wahl ist die Verwendung des "Clear"-Befehls, der den gesamten Kontext entfernt und eine neue Sitzung mit leerem Kontext beginnt.
00:07:32Im Gegensatz zur Komprimierung wird nichts übernommen, und nur das, was Sie wieder bereitstellen, bleibt im Kontextfenster.
00:07:37Genauso wie bei der Komprimierung sollten Sie "Clear" nicht nur verwenden, wenn Ihnen der Kontext ausgeht.
00:07:41Wenn Sie zu einer unabhängigen Aufgabe wechseln, ist es unkompliziert, die Sitzung zu leeren und ganz von vorne zu beginnen, damit die vorherige Aufgabe nicht mit der neuen interferiert.
00:07:49Wenn Sie den Agenten beispielsweise bitten, Testfälle für eine Anwendung zu schreiben, an der Sie arbeiten, möchten Sie vielleicht nicht, dass er Details darüber beibehält, wie diese Testfälle generiert wurden.
00:07:57Anstatt innerhalb desselben Kontextes weiter zu debuggen, können Sie eine neue Sitzung starten.
00:08:01Auf diese Weise kann Claude beim Debuggen Ihrer Anwendung effektiver arbeiten, ohne davon beeinflusst zu werden, wie er zuvor die Testfälle generiert hat.
00:08:08Jetzt gibt es noch einen weiteren Ansatz, den Sie verwenden können: die Kombination von "Clear" und Komprimierung.
00:08:12Dies ermöglicht es Ihnen, nur das zu behalten, was Sie wollen, und alles andere zu verwerfen.
00:08:16Die Idee ist, ein strukturiertes JSON-Format zu verwenden, das die Informationen erfasst, die Sie bewahren möchten.
00:08:21Sie können einen benutzerdefinierten Befehl erstellen, damit Sie ihn häufig wiederverwenden können.
00:08:24In diesem Befehl können Sie eine JSON-Struktur einfügen, die die vollständige Aufgabe, den aktuellen Status, Einschränkungen, entdeckte Probleme und alle anderen relevanten Details enthält, die Claude behalten soll, und ihn dann anweisen, dies in einer Datei zu speichern.
00:08:35Dieser Ansatz lässt Sie das Beste aus beiden Methoden nutzen.
00:08:38Sobald Sie den Befehl ausführen, analysiert er das gesamte Gespräch und den aktuellen Zustand der Anwendung – etwas, das eine normale Komprimierung nicht zuverlässig bewahrt – und speichert alles wie angegeben in der Datei.
00:08:48Ein Schema ist viel strenger als Prosa. Wenn Claude also einer definierten Struktur folgt, kann er Wichtiges konsistenter und genauer darstellen.
00:08:56Nachdem die Informationen in der Datei gespeichert wurden, können Sie sicher den "Clear"-Befehl verwenden, um alles aus dem Kontextfenster zu entfernen.
00:09:02Dann können Sie eine neue Sitzung starten und Claude anweisen, sich auf dieses Dokument zu beziehen, um Kontext zu sammeln und von dort aus die nächste Aufgabe umzusetzen.
00:09:14Wie bereits erwähnt: Wenn der Kontext wächst, kann der Fokus des Agenten abdriften, weil einfach mehr Informationen um Aufmerksamkeit konkurrieren, und das ist bei dem 1-Million-Kontextfenster noch deutlicher.
00:09:23Diese Praxis hilft, sowohl das Problem der Ziel-Drift als auch die Entscheidungskonsistenzprobleme anzugehen, die wir zuvor besprochen haben.
00:09:29Anstatt in einer lang laufenden Aufgabe kontinuierlich vorwärts zu drängen, ist es sinnvoll, regelmäßig zu pausieren und den Agenten zu bitten, zusammenzufassen, was er bisher getan hat, zusammen mit den Einschränkungen und anderen wichtigen Faktoren.
00:09:39Wenn Sie dies tun, werden die ursprünglichen Ziele gestärkt und wichtige Details zurück in den aktuelleren Teil des Kontextfensters gebracht, anstatt sie in älteren Abschnitten vergraben zu lassen.
00:09:48Dies hilft sicherzustellen, dass wichtige Informationen im Arbeitskontext des Agenten frisch bleiben und weniger wahrscheinlich bei der Komprimierung verloren gehen oder mit der Zeit verwässert werden,
00:09:56sodass der Agent besser auf die Aufgabe ausgerichtet bleibt, die er ausführen soll, und eine bessere Konsistenz bei seinen Entscheidungen beibehält.
00:10:02Außerdem, wenn Ihnen unsere Inhalte gefallen, erwägen Sie, den Hype-Button zu drücken, da uns das hilft, mehr Inhalte wie diesen zu erstellen und mehr Menschen zu erreichen.
00:10:09Sub-Agenten sehen vielleicht nicht nach viel aus, aber sie sind tatsächlich ein sehr wichtiger Weg, den Kontext zu verwalten.
00:10:14Jeder Sub-Agent ist seine eigene unabhängige Instanz mit einem dedizierten Kontextfenster, vollem Tool-Zugriff und den Berechtigungen, die er benötigt, um seine Aufgabe zu erledigen.
00:10:22Sie führen die zugewiesene Arbeit in diesem separaten Kontext aus, der vom Haupt-Agenten bereitgestellt wird, und geben dann nur das Endergebnis an den Hauptkontext zurück.
00:10:30Alle Tool-Aufrufe, die er getätigt hat, Dateien, die er gelesen hat, Websuchen, die er durchgeführt hat, und zwischenzeitliche Schlussfolgerungen bleiben also im Kontext des Sub-Agenten selbst und verschmutzen nicht den Kontext des Haupt-Agenten.
00:10:40Dies ist ein effektiver Weg, Kontextverfall zu reduzieren. Forschungsaufgaben sind das deutlichste Beispiel.
00:10:45Der Agent geht verschiedene Websites, Seiten und Quellen durch, und Sie möchten nicht, dass all diese rohen Informationen kontinuierlich in das Hauptkontextfenster aufgenommen werden.
00:10:53In solchen Fällen kann ein Sub-Agent die Arbeit unabhängig erledigen und nur die endgültige Synthese zurückgeben.
00:10:58Die Schlüsselfrage, die Sie sich vor der Verwendung eines Sub-Agenten stellen sollten, ist, ob Sie Zugriff auf die Zwischenschritte benötigen oder ob Ihnen nur das Endergebnis wichtig ist.
00:11:07Claude Code verwaltet die Orchestrierung von Sub-Agenten auch von selbst und kann Agenten erstellen, um Aufgaben automatisch zu erledigen.
00:11:13Manchmal müssen Sie jedoch in Ihrem Prompt explizit angeben, dass die Arbeit an einen Sub-Agenten delegiert werden soll, damit sie isoliert behandelt wird.
00:11:20Wenn Sie also an Forschungsaufgaben, Refactoring-Aufgaben, Zusammenfassungen oder der Dokumentenerstellung arbeiten, sollten Sie in Betracht ziehen, diese mithilfe von Sub-Agenten von Ihrem Haupt-Agenten zu trennen.
00:11:30Zu guter Letzt ist "Rewinding" (Zurückspulen) im Vergleich zum einfachen Korrigieren sehr wichtig, da es irrelevante oder falsche Teile aus dem Kontextfenster entfernt und nur den korrekten Status beibehält.
00:11:40Wann immer Claude auf einen Fehler stößt, versuchen Leute oft, ihn neu zu instruieren, einen anderen Ansatz zu verfolgen.
00:11:44Aber eine bessere Option ist es, stattdessen zurückzuspulen und dann im neuen Prompt die korrekte Richtung vorzugeben.
00:11:49Sie können den "Rewind"-Befehl verwenden oder die Escape-Taste zweimal drücken, um dies zu tun.
00:11:53Nach dem Zurückspulen können Sie ab diesem Punkt auch zusammenfassen, sodass das Gespräch bis zu diesem Stadium als nützlicher Kontext erhalten bleibt, während die Teile entfernt werden, die zum Fehler geführt haben.
00:12:01Zurückspulen hat mehrere Vorteile.
00:12:03Erstens säubert es das Kontextfenster durch das Entfernen des Teils, wo Dinge schiefgelaufen sind, was zu einer saubereren Komprimierungszusammenfassung führt, die nur korrekte Implementierungen bewahrt.
00:12:12Selbst wenn Sie wichtige Informationen anpinnen, vermeiden Sie es, Abschnitte mitzuschleppen, in denen der Agent vom Ziel abgewichen ist, was hilft, sowohl Entscheidungskonsistenz als auch Ziel-Drift zu reduzieren.
00:12:21Wenn Sie Sub-Agenten verwenden, stellt das Zurückspulen sicher, dass diese einen saubereren und genaueren Kontext erhalten, wenn Aufgaben übergeben werden, sodass falsche Ansätze nicht in ihrem Arbeitsstatus enthalten sind.
00:12:30Gleichermaßen erfasst es, wenn Sie einen Handoff-Befehl verwenden, den korrekten Zustand der Anwendung anstatt einen beschädigten oder veralteten.
00:12:37Gewöhnen Sie sich also an, zurückzuspulen, anstatt wiederholt nach vorne zu korrigieren, damit der Agent über die gesamte Sitzung hinweg konsistent aus einem sauberen und genauen Zustand arbeitet.
00:12:45Das bringt uns zum Ende dieses Videos.
00:12:47Wenn Sie den Kanal unterstützen und uns helfen möchten, weiterhin solche Videos zu erstellen, können Sie dies mit dem "Super Thanks"-Button unten tun.
00:12:54Wie immer vielen Dank fürs Zuschauen und ich sehe Sie im nächsten Video.

Key Takeaway

Die präventive Verwaltung des Kontextfensters durch manuelle Komprimierung bei 300.000 bis 400.000 Token, den Einsatz von Sub-Agenten und systematisches Zurückspulen verhindert den KI-Leistungsabfall bei lang laufenden Claude-Code-Projekten.

Highlights

KI-Leistungsabfall, bekannt als Kontextverfall, tritt bei Claude Code bereits ab einer Auslastung von 300.000 bis 400.000 Token auf.

Das 1-Million-Token-Kontextfenster führt bei unsachgemäßer Verwaltung zu Kontextverschmutzung, Ziel-Drift, Speicherkorruption und Entscheidungsungenauigkeit.

Automatische Komprimierung ist verlustbehaftet und sollte manuell gesteuert werden, um die Priorisierung wichtiger Anweisungen sicherzustellen.

Die Verwendung von Sub-Agenten isoliert Forschungs- und Hintergrundaufgaben, wodurch der Kontext des Haupt-Agenten sauber bleibt.

Zurückspulen (Rewinding) mittels Escape-Taste ist effektiver als Korrekturanweisungen, da es fehlerhafte Zustände vollständig aus dem Kontext entfernt.

Timeline

Die Problematik des 1-Million-Token-Fensters

  • Das 1-Million-Token-Kontextfenster ist ein zweischneidiges Schwert, das zu Kontextverfall führen kann.
  • Leistungsabfall beginnt bereits bei 40 % Auslastung (300.000 bis 400.000 Token).
  • Aufgeblähte Kontextfenster stören das logische Denken des Modells.

Obwohl größere Fenster mehr Informationen ermöglichen, führt die Informationsdichte zu einem Fokusverlust der KI. Die Leistung degradiert schneller, als die theoretische Kapazität vermuten lässt, da das Modell mit zunehmendem Kontext mehr irrelevante Details verarbeiten muss.

Fehlermechanismen bei langer Agentenlaufzeit

  • Mangelnde Kontextverwaltung verursacht vier Hauptfehler: Kontextverschmutzung, Ziel-Drift, Speicherkorruption und Entscheidungsungenauigkeit.
  • Ziel-Drift tritt auf, wenn die KI ursprüngliche Aufgabenanweisungen aufgrund zu vieler aktiver Informationen vergisst.
  • Speicherkorruption entsteht durch veraltete Zustände in Dateien, die von Sub-Agenten modifiziert wurden.

Diese vier Kategorien beschreiben, wie Agenten während längerer Aufgaben ihre Kohärenz verlieren. Insbesondere bei komplexen Projekten führt die Vermischung von System-Prompts, Tool-Ausgaben und Benutzeranweisungen zu inkonsistentem Verhalten.

Strategien zur Kontextverwaltung

  • Manuelle Komprimierung ist der automatischen vorzuziehen, da sie den Verlust wichtiger Details verhindert.
  • Die Kombination aus 'Clear' und strukturiertem JSON-Export ermöglicht einen Neuanfang bei gleichzeitiger Sicherung kritischer Projektinformationen.
  • Sub-Agenten trennen Forschungsaufgaben isoliert vom Hauptkontext.
  • Zurückspulen entfernt fehlerhafte Abschnitte dauerhaft aus dem Sitzungsverlauf.

Effektive Verwaltung erfordert aktives Eingreifen. Durch das Speichern von Zuständen in strukturierten JSON-Dateien vor einem 'Clear'-Befehl behält die KI den notwendigen Kontext für neue Sitzungen bei. Sub-Agenten dienen als isolierte Instanzen für spezifische Teilaufgaben, während systematisches Zurückspulen sicherstellt, dass nur korrekte Implementierungsschritte in den Arbeitsverlauf eingehen.

Community Posts

View all posts