Log in to leave a comment
No posts yet
Wir befinden uns in einer Ära, in der KI-Agenten Code schreiben und Infrastrukturen aufbauen. Doch Entwickler vor Ort verspüren oft noch eine gewisse Unsicherheit. Das liegt daran, dass ein Agent, der eben noch perfekt funktionierte, plötzlich abwegige Antworten liefert oder explizit angewiesene Tools ignoriert.
Ein aktuelles Experiment des Vercel AI SDK-Teams lieferte schockierende Ergebnisse: Wenn man KI-Agenten die Wahl der Werkzeuge (Skills) selbst überlässt, liegt die Fehlerquote bei stolzen 56 %. Dies ist kein Problem der Intelligenz des Modells. Es ist ein Beweis dafür, dass die Art und Weise, wie wir der KI Informationen bereitstellen, grundlegend falsch ist. Das Geheimnis, um die Erfolgsquote eines Agenten auf 100 % zu heben, liegt nicht im Hinzufügen weiterer Tools, sondern in einer Strategie für persistenten Kontext auf Basis von agents.md.
Viele Entwickler statten Agenten mit verschiedenen Tool-Calling-Funktionen aus und erwarten, dass die KI diese bei Bedarf selbstständig abruft. Dieser Ansatz hat jedoch eine kritische Schwäche: das sogenannte Entscheidungsrauschen (Decision Noise).
Das Kontextfenster eines KI-Modells ähnelt dem Kurzzeitgedächtnis eines Menschen. Nach mehr als fünf Interaktionen rücken die Anweisungen aus dem ursprünglichen System-Prompt in der Prioritätenliste nach hinten. Dies nennt man Kontext-Verfall. Der Agent grübelt in jedem Moment: „Soll ich jetzt ein Tool benutzen oder einfach aus dem Stegreif antworten?“ Dieser Entscheidungspunkt selbst wird zu einem Single Point of Failure.
Die Lösung, um die Fehlerrate von 56 % auf 0 % zu senken, ist simpel. Anstatt dem Agenten die Wahl zu lassen, werden die Kernregeln und Informationen des Projekts fest im System-Prompt verankert. Das Herzstück dabei ist die Datei agents.md.
Laut Vercel-Benchmarks lag die Erfolgsrate bei 79 %, wenn dieselben Informationen als Tool bereitgestellt wurden. Wurden sie jedoch direkt in Form eines Index in agents.md integriert, wurde eine Erfolgsquote von 100 % erreicht.
| Metrik | Tool-Calling-Ansatz (Skills) | Persistenter Kontext (agents.md) |
|---|---|---|
| Entscheidungsfindung | Agent entscheidet jedes Mal über das Laden | Informationen sind immer im System präsent |
| Zuverlässigkeit | ca. 53 % ~ 79 % (instabil) | Bis zu 100 % erreichbar |
| Rechenlast (Reasoning) | Hohe Last durch Entscheidungsrauschen | Niedrige Last durch Wegfall der Entscheidung |
| Merkmal | On-Demand-Ansatz | Passiver Ansatz |
Um die Leistung zu maximieren, muss agents.md nicht als einfache Textdatei, sondern als README für Maschinen konzipiert werden.
Konkrete Verbote steigern die Qualität der Agenten-Ergebnisse sofort stärker als abstrakte Prinzipien. Anweisungen wie „Nutze MUI v3 und verwende für das State Management zwingend Jotai“ sind notwendig. Klare Befehle, niemals alert() zu verwenden und stattdessen Komponenten einer bestimmten Bibliothek zu nutzen, verhindern, dass der Agent vom Kurs abweicht.
Man sollte den Agenten nicht das gesamte Repository durchsuchen lassen, was Token verschwendet. Stattdessen sollten die Speicherorte der wichtigsten Dateien in einem Mini-Index bereitgestellt werden. Es muss eine klare Karte gezeichnet werden: Soll für den Build pnpm verwendet werden? Wo befinden sich die Route-Dateien und Schemata?
Wenn die Datei zu groß wird, sinkt die Leistung. Vercel empfiehlt, Dokumente von 40 KB auf 8 KB zu komprimieren und zu indexieren. Der Kernpunkt ist, dem Agenten nicht das Wissen selbst „einzulöffeln“, sondern die Pfade zu optimieren, über die er auf das Wissen zugreifen kann.
So wie sich im Code technische Schulden ansammeln, entstehen bei der KI-Nutzung „Prompt-Schulden“. Wenn jedes Teammitglied dem Agenten unterschiedliche Anweisungen gibt, geht die Konsistenz der Ergebnisse verloren. Indem man agents.md im Projekt-Root ablegt und via Git verwaltet, wird die Versionskontrolle integriert. Unabhängig vom verwendeten Modell gelten für das gesamte Team dieselben Standard-Guidelines.
In der Ära der KI-Agenten entscheidet das Context Engineering über Sieg oder Niederlage, nicht die Intelligenz des Modells allein. Anstatt darauf zu warten, dass Agenten klüger werden, ist der sicherste Weg zur Produktivitätssteigerung der Aufbau einer Umgebung, in der der Agent keine Fehler machen kann. Beginnen Sie jetzt damit, eine agents.md im Projekt-Root zu erstellen und Ihre Teamregeln festzuschreiben.