Log in to leave a comment
No posts yet
Man sollte Claude Code nicht einfach den gesamten Projektordner durchsuchen lassen. Je mehr Dateien vorhanden sind, desto höher ist die initiale Kontextbelegung, was sich direkt negativ auf den Geldbeutel auswirkt. Betrachtet man die von Anthropic veröffentlichten Anwendungsfälle des Model Context Protocol (MCP), lässt sich der Token-Verbrauch um über 30 % senken, wenn man nur die benötigten Tabellendefinitionen abfragt, anstatt den gesamten Text zu injizieren.
Die Methode ist einfach: Erstellen Sie eine .mcp.json im Projekt-Root und geben Sie folgenden Befehl im Terminal ein:claude mcp add db -- npx -y @bytebase/dbhub
Verbinden Sie nun PostgreSQL oder MongoDB direkt. Sie müssen Claude ausdrücklich anweisen: "Lies nicht das gesamte Schema, sondern hole nur die Tabellen-DDL, die für die Funktion relevant ist, die ich gerade bearbeite." Da statt zehntausender Zeilen des Schemas nur die benötigten Dutzend Zeilen gelesen werden, lassen sich die Kosten pro Session auf unter 1 USD begrenzen, während die Antwortgenauigkeit steigt.
Halluzinationen, bei denen der Agent mitten im Schreiben von Code Unsinn redet, verschlimmern sich, wenn keine physischen Einschränkungen vorhanden sind. Selbst wenn der Kontext voll ist und die Urteilskraft nachlässt, fungiert Testcode als präzises Orakel. Tatsächlich reduziert der Aufbau eines automatisierten Feedback-Loops die manuelle Debugging-Zeit um mehr als 5 Stunden pro Woche.
Lassen Sie den Agenten zuerst mit dem Befehl /test einen fehlschlagenden Testcode für die zu implementierende Funktion schreiben. Richten Sie anschließend einen PostToolUse-Hook ein, damit die Tests bei jeder Dateiänderung automatisch ausgeführt werden. Wichtig ist hierbei, den Agenten zu zwingen: "Rühre den Testcode nicht an, schreibe nur die minimale Logik in den Hauptteil, um diesen Test zu bestehen." Sie müssen Fehlermeldungen nicht einzeln kopieren und übermitteln. Wenn man den Agenten seine eigenen Fehler sehen und beheben lässt, steigt die Integrität des bereitstellbaren Codes auf bis zu 95 %.
Je länger eine Claude Code-Session dauert, desto mehr sammeln sich frühere Tool-Ausführungsergebnisse an, was die Kosten explodieren lässt. Wenn der Kontext 70 % überschreitet, tritt ein "Drift-Phänomen" auf, bei dem der Agent vergisst, was anfangs gesagt wurde, oder seltsamen Code schreibt. Ich leere die Session zwangsweise bei der 60 %-Marke, wenn der Kontext-Balken gelb wird.
Das bedeutet nicht, einfach nur auszuschalten. Erstellen Sie eine HANDOFF.md-Datei. Lassen Sie den Agenten darin die bisher getroffenen Entscheidungen und die verbleibenden Aufgaben zusammenfassen. Löschen Sie dann die Session mit /clear und starten Sie neu. Sie müssen dann nur die soeben erstellte HANDOFF.md einlesen lassen. Bei der Nutzung von Hochleistungsmodellen wie Claude 3.5 Sonnet können Sie so die Kosten für unnötige Vergangenheitsdaten halbieren und den Workflow dennoch nahtlos fortsetzen.
Claudes Wissen endet zum Zeitpunkt des Trainings. Wenn man mit Frameworks wie Next.js App Router arbeitet, deren Syntax sich häufig ändert, ist es reines Anwenderversagen, wenn der Agent veralteten Code schreibt. Das Kopieren und Einfügen offizieller Dokumentation ist Token-Verschwendung und mühsam.
Installieren Sie mit dem Befehl claude mcp add context7 ein MCP für die Dokumentensuche. Geben Sie im Prompt einfach die Version an, z. B. "use context7 to fetch the latest NextAuth v5 documentation". Lassen Sie den Code auf Basis der in Echtzeit abgerufenen API-Spezifikationen schreiben. Damit lassen sich über 40 % der Zeit einsparen, die sonst durch veraltete Syntax verloren ginge.
Wenn man dem Agenten komplexe Business-Logik anvertraut, fängt er meist sofort an, Code hinzuschmieren. Wenn dann logische Lücken entstehen, werden zehntausende weitere Token verbraucht, um diese zu flicken. Man sollte diese Kosten sparen, indem man die erweiterten Denkfähigkeiten von Claude 4.5 vorab per Prompt implementiert.
Schreiben Sie in die Datei CLAUDE.md: "Bevor du Code schreibst, erkläre unbedingt zuerst die schrittweise Logik innerhalb von <thinking> Tags." Lassen Sie ihn zuerst drei mögliche Ausnahmesituationen extrahieren und legen Sie den Prozess so fest, dass die Dateiänderung erst beginnt, wenn Sie diese Logik genehmigt haben. Ein paar hundert Token mehr auszugeben, um den Iterationsprozess zu sehen, ist viel wirtschaftlicher, als zehntausende Token zu verschwenden, um falsche Logik zu korrigieren. Für Solo-Entwickler gibt es keine bessere Orchestrierungsstrategie.