00:00:00Die Leute drehen wegen Kimi 2.5 völlig durch. Es ist ein Open-Source-Modell mit Benchmarks,
00:00:05die teilweise besser als bei Opus sind, und einem genialen Agent Swarm Modus. Dabei kann
00:00:11ein Orchestrator bis zu 100 spezialisierte Agenten für komplexe Aufgaben erstellen. Aber wusstet ihr,
00:00:17dass dieses Feature auch im Code von Claude existiert? Versteckt hinter einem Flag wurde es
00:00:23von einem Twitter-Nutzer entdeckt. Wie kam man darauf? Und hat Anthropic die Idee bei Kimi
00:00:30geklaut? Abonniert den Kanal und legen wir los. Anthropic hat bereits im Juli letzten Jahres
00:00:35eigene Sub-Agenten angekündigt, die seither für verschiedenste Spezialaufgaben genutzt werden.
00:00:41Damals haben wir auch ein Video dazu gemacht. Diese Sub-Agenten haben aber immer nur einen
00:00:48Ausschnitt des gesamten Kontextes. Sie erledigen ihre Aufgabe, liefern Daten und fangen dann
00:00:54wieder bei null an. Nutzer haben sich beholfen, indem die Agenten ihre Ergebnisse in Markdown-Dateien
00:01:01schreiben, um so den Haupt-Kontext zu aktualisieren. So konnten andere Agenten dort anknüpfen,
00:01:06wo die vorherigen aufgehört haben. Dennoch muss man jeden Sub-Agenten manuell erstellen,
00:01:12ihm eine Rolle zuweisen sowie Skills und Rechte geben. Und genau hier setzt Kimis neuer
00:01:19Agent Swarm an: Der Orchestrator erstellt hierbei völlig dynamisch spezialisierte Sub-Agenten
00:01:25für jede spezifische Aufgabe. Man muss selbst nichts mehr tun. Diese Sub-Agenten arbeiten
00:01:31parallel an der Gesamtaufgabe. Sobald ein Teil fertig ist, gehen die Daten zurück an den Orchestrator,
00:01:36der dann entscheidet, ob weitere Agenten für den nächsten Schritt nötig sind. Kimis Swarm
00:01:42ist zwar noch ein Forschungsprojekt, zeigt aber bereits enorme Fortschritte gegenüber
00:01:48Workflows mit nur einem Agenten. Seht euch diese Grafik an: Selbst bei steigender Komplexität
00:01:53bleibt die Performance dank der parallelen Arbeitsweise fast konstant. Um ehrlich zu sein,
00:01:58lässt sich das in Claude Code bereits ansatzweise umsetzen. Mit dem neueren Task-Feature
00:02:04kann man Aufgabenlisten erstellen und diese an einzelne Sub-Agenten verteilen. Das Problem:
00:02:10Diese Sub-Agenten sind eher Allrounder und nicht auf die jeweilige Teilaufgabe spezialisiert.
00:02:15Ich bin mir auch nicht sicher, ob Claude Aufgaben automatisch dem passenden Agenten zuweist.
00:02:21Schreibt mir eure Erfahrungen dazu gern in die Kommentare. Aber anscheinend arbeitet das
00:02:25Claude-Team an einer Lösung, bei der ein Orchestrator Sub-Agenten „on the fly“ erstellt.
00:02:31Dieses Feature war hinter einem Flag versteckt, das Mike Kelly entdeckt hat. In seinem Tweet
00:02:37zeigt er, wie es funktioniert, und verlinkt ein Repo namens „Claude Sneak Peek“. Das probieren
00:02:42wir jetzt aus. Hier ist ein KI-generierter Plan für ein Web-Frontend für „XDL“ – ein Tool,” mit dem
00:02:48man Videos von X bzw. Twitter direkt im Terminal laden kann. Ich habe Claude Sneak Peek
00:02:55schon installiert. Es sieht aus wie eine Minimalversion von Claude Code. Ich weise es an,
00:03:00die Datei plan.md zu lesen und Aufgaben für einen Schwarm von Sub-Agenten zu erstellen.
00:03:05Nachdem die Aufgaben stehen, lasse ich sie durch die Sub-Agenten ausführen. Zuvor möchte ich
00:03:11aber kurz bestätigen, dass ich keine manuellen Sub-Agenten angelegt habe.
00:03:16Ich führe den Befehl /agent aus und man sieht: Da sind keine spezialisierten Agenten
00:03:21hinterlegt. Sobald der Prozess startet, fügt das System automatisch einen „Front-end Builder“
00:03:26für die entsprechenden Aufgaben hinzu. Wenn man die Team-Ansicht öffnet, sieht man plötzlich
00:03:32ein ganzes Team: fünf Agenten – Team Lead, QA Tester, Back-end Builder, Component Builder
00:03:37und Front-end Builder –, die alle gleichzeitig arbeiten. Man kann sogar sehen,
00:03:42woran jeder Einzelne gerade feilt. Der QA Tester sucht nach Mustern, ebenso der Back-end
00:03:48Builder, der zusätzlich Dateien einliest. Das Gleiche gilt für die anderen Builder.
00:03:53Wenn wir genau wissen wollen, was ein Agent tut, gehen wir in seine Detailansicht
00:03:57und sehen seinen System-Prompt. Zurück in der Übersicht sind es plötzlich schon acht Agenten:
00:04:02Ein Component Creator, ein API-Server, jemand für das Setup, die API-Integration und jetzt
00:04:07sogar jemand für CSS. Das Team wächst ständig weiter. Klicken wir auf den Team Lead,
00:04:13landen wir wieder in der Hauptansicht von Claude Code. Er ist also der Orchestrator.
00:04:18In der Hauptansicht liefert jeder Sub-Agent seinen aktuellen Statusbericht ab.
00:04:24Wenn ich herauszoome und hochscrolle, sehe ich den gesamten Nachrichtenverlauf aller Agenten.
00:04:29Sobald alles fertig ist, erhalten wir eine Datei, die den Projektabschluss bestätigt.
00:04:34Dazu gibt es einen „Swarm Execution Report“. Dieser listet alle genutzten Agenten auf,
00:04:41ihre Rollen und ob sie erfolgreich waren. Man kann genau nachlesen, was jeder getan hat.
00:04:47Wenn man sieht, wie weit Anthropic hier schon ist, glaube ich nicht, dass sie von Kimi kopiert haben.
00:04:52Vermutlich haben sie sich von Online-Projekten inspirieren lassen und wollten es nativ
00:04:59in Claude Code einbauen. Dass es noch nicht offiziell raus ist, ist verständlich.
00:05:04Einerseits fehlt wohl noch das intensive Training des Orchestrators, das Kimi 2.5 schon hat.
00:05:10Andererseits wird es kompliziert, wenn ein Nutzer bereits eigene Sub-Agenten angelegt hat.
00:05:16Woher weiß der Orchestrator, ob er einen neuen Agenten erstellen oder einen vorhandenen
00:05:22nutzen soll? Nach welchen Metriken wird das entschieden? Auch Skills machen es komplexer.
00:05:28Soll der Orchestrator bereits installierte Skills nutzen oder neue laden, die vielleicht besser passen?
00:05:35Falls Anthropic das Feature veröffentlicht, muss der Orchestrator erst Unmengen an Nutzerdaten,
00:05:42Tools und Skills sichten, bevor er entscheiden kann, was er wie neu erstellt. Ich weiß nicht,
00:05:49ob sie gerade aktiv daran arbeiten oder ob es ihnen am Ende doch zu kompliziert ist.
00:05:56Apropos Features: Wenn ihr – egal ob KI oder Mensch – schnell neue Funktionen entwickelt,
00:06:02muss alles stabil bleiben. Da solltet ihr euch Betastack ansehen. Es überwacht Server-Logs
00:06:10mit Anomalieerkennung und warnt euch, bevor etwas schiefgeht. Zudem gibt es
00:06:16KI-basiertes Error-Tracking für euer Frontend. Schaut also mal bei Betastack vorbei.
00:06:22Speaking of features if you're using an AI or a human to rapidly add features to a project and you
00:06:28want to make sure things don't break then you really need to check out Betastack because it's able to
00:06:33monitor logs on your servers and use anomaly detection to tell you if anything goes wrong
00:06:38before it does. And it also has AI native error tracking to let you know if anything goes wrong
00:06:44on your front end. So go and check out Betastack today.