Log in to leave a comment
No posts yet
Claude 3.5 Sonnet ist ein höflich programmiertes Modell. Wenn man es einfach bittet, sich kurz zu fassen, verschwendet es aus Höflichkeit Token. Modelle konzentrieren sich am stärksten auf den Anfang und das Ende eines Prompts. Nutzen Sie diese Eigenschaft: Verpassen Sie dem Modell ganz oben in der Systemnachricht die Persona eines "Höhlenmensch-Ingenieurs" und untersagen Sie am untersten Ende explizit Begrüßungen und Zusammenfassungen. Allein durch die erneute Betonung der Anweisungen am Ende können Sie die Token-Kosten pro API-Aufruf sofort um 30 % senken.
Die Reduzierung des Outputs bedeutet nicht, dass die Intelligenz des Modells sinken muss. Verwenden Sie bei komplexer Codelogik das <thinking>-Tag. Lassen Sie den Denkprozess innerhalb der internen Tags detailliert ablaufen, während Sie den "Caveman-Stil" nur auf das <answer>-Tag anwenden, das das Endergebnis enthält. Im Jahr 2026 zeigt Claude 4.6 Sonnet im Vergleich zum Opus-Modell eine hohe Erfolgsquote bei nur etwa 30 % der Kosten. Wenn Sie den Denkprozess über günstige Caching-Token abwickeln und die teuren Output-Token auf den Kerncode konzentrieren, erreichen Sie gleichzeitig Präzision und Wirtschaftlichkeit.
Wenn man das Modell anweist, wie ein Höhlenmensch zu sprechen, bricht es gelegentlich die JSON-Syntax ab oder vergisst notwendige Import-Anweisungen. Für Einzelentwickler verursachen solche Parsing-Fehler Kosten durch manuelle Korrekturen. Erzwingen Sie im System-Prompt die Verwendung von Trennzeichen wie ---BEGIN JSON--- und implementieren Sie ein Post-Processing-Skript mit dem re-Modul von Python, um Markdown-Code-Fences zu entfernen. Diese eine Leitplanke verhindert über 90 % der manuellen Eingriffe in Automatisierungsprozessen.
Stand 2026 liegen die Kosten für Output-Token bei Claude 3.5 Sonnet bei 15,00 auf etwa 31 $. Passen Sie die Intensität je nach Art der Aufgabe an: Nutzen Sie den "Lite"-Modus für einfache Korrekturen und den "Ultra"-Modus für Massendaten-Konvertierungen. Eine 15-minütige Investition in die Anpassung Ihrer Prompts spart jährlich 276 $. Ein effizienter Ingenieur führt keine langen Dialoge mit der KI – er extrahiert präzise die benötigte Informationsdichte.