Log in to leave a comment
No posts yet
Die Ära, in der man einen einfachen Chatbot nach Code fragt und auf die Antwort wartet, ist vorbei. Claude Code oder GitHub Copilot sind hervorragende Assistenten, aber sie sind zu langsam und linear, um Enterprise-Systeme zu modifizieren, in denen hunderte von Dateien miteinander verflochten sind. Alles einer einzigen KI anzuvertrauen, die bei langen Sitzungen den Kontext verliert und umherirrt, ist heute nur noch ein Produktivitätsengpass.
Es ist nun die Zeit der Agenten-Orchestrierung. Das von Steve Yegge vorgeschlagene Open-Source-Projekt Gastown zielt auf ein Codier-Fabriksystem ab, das mehr als 30 AI-Agenten gleichzeitig betreibt, Funktionen zerlegt und parallel aufbaut. Sie müssen nun kein Coder mehr sein, sondern ein Orchestrator, der eine KI-Armee dirigiert.
Gastown ist nicht nur ein einfacher KI-Wrapper. Es übernimmt Prinzipien des verteilten Rechnens, um die Instabilität einzelner Agenten durch die Systemstruktur zu lösen. Der Kern liegt darin, Rollen klar zu trennen und Aufgaben in atomare Einheiten zu zerlegen.
Der Kern dieser Struktur besteht darin, dem Vibe Coding (Programmieren nach Gefühl) zu entkommen. Gastown verhindert durch ein PreToolUse-Hook-System physisch, dass Agenten direkt in den Main-Branch committen. Jeder Code wird in einem separaten Feature-Branch geschrieben und muss die strengen Testvalidierungen der Refinery bestehen, bevor er integriert wird.
Dutzende von Mitarbeitern für jede Aufgabe einzusetzen, ist eine Verschwendung von API-Kosten. Die Feuerkraft muss entsprechend der Komplexität der Aufgabe angemessen verteilt werden.
| Projektgröße | Agenten-Konfiguration | Kernstrategie |
|---|---|---|
| Klein (Bugfix) | 1 Mayor + 1~2 Polecats | Fokus auf Anweisungen und Ergebniskontrolle statt auf direktes Coding |
| Mittel (Neue API) | 1 Mayor + 5~10 Polecats | Parallele Durchführung von Frontend- und Backend-Aufgaben |
| Groß (Architekturänderung) | 1 Mayor + 20~30 Polecats | Einsatz von Witness-Agenten zur Echtzeit-Lösung von Engpässen |
Bei großen Migrationsaufgaben verkürzt der Einsatz von 30 Agenten eine Arbeit, die manuell 6 Stunden dauern würde, auf etwa 20 Minuten. Dies setzt jedoch eine Optimierung der Modellzuweisung voraus. Weisen Sie dem Mayor, der für das Design zuständig ist, ein Hochleistungsmodell wie Claude 3.5 Sonnet zu, und setzen Sie für Polecats, die einfache Implementierungen oder Tests durchführen, kosteneffiziente Modelle wie Gemini ein, um die Kosteneffizienz zu maximieren.
Angenommen, Sie möchten einer Go-basierten Anwendung eine JWT-Authentifizierung hinzufügen. Der Prozess, die Armee mit einer einzigen Befehlszeile in Bewegung zu setzen, sieht wie folgt aus:
gt mayor attach.gt convoy list.gt status.Falls der Betrieb nicht reibungslos läuft, sollten Sie zuerst die Umgebung überprüfen. Es ist insbesondere wichtig sicherzustellen, dass die Dolt-Version 1.82.4 oder höher ist. Ältere Versionen verursachen Fehler bei der Git-Datenbanksynchronisation, was zu Arbeitskonflikten zwischen Agenten führt. Wenn Probleme beim Ausführen des Daemons auftreten, stellen Sie mit tmux -V sicher, dass die Version 3.0 oder höher ist, und führen Sie gt doctor --fix aus, um die Umgebung zu initialisieren.
30 AI-Agenten gleichzeitig zu betreiben bedeutet, dass Sie nicht mehr selbst tippen. Die wahre Stärke eines Ingenieurs zeigt sich nun darin, wie präzise Architektur-Entscheidungen in Richtliniendokumenten wie CLAUDE.md festgehalten werden.
Agenten sind großartige Helfer, aber ohne ordnungsgemäßes Management sind sie wie superintelligente Schimpansen, die das System lähmen können. Betreiben Sie sie unbedingt in einem separaten experimentellen Rig und legen Sie API-Kostengrenzen fest. Um die Ermüdung durch die manuelle Überprüfung von Dutzenden von PRs zu verringern, sollten Sie einen zusätzlichen Agenten in der Rolle eines "PR-Sheriffs" einsetzen, der Syntaxfehler und nicht bestandene Tests in erster Instanz herausfiltert. Ihre Software-Fabrik ist nun betriebsbereit.