00:00:00War Opus 4.6 das einzige Upgrade von Anthropic?
00:00:03Sie kennen bereits Sub-Agenten, bei denen jeder Agent als einzelne Einheit mit
00:00:07seinem eigenen Kontextfenster agiert.
00:00:09Aber diese Sub-Agenten scheiterten bei Aufgaben, die eine gegenseitige Koordination erforderten.
00:00:13In diesen Fällen musste der Orchestrator eingreifen, Antworten von einem Agenten nehmen und
00:00:17an einen anderen delegieren, oder die Agenten mussten auf Notizen im Projektordner zurückgreifen.
00:00:21Aufgrund dieser Kommunikationslücke wurden einfache Aufgaben oft viel zu kompliziert.
00:00:25Um dies zu beheben, hat Anthropic ein neues Upgrade für Sub-Agenten veröffentlicht und sie „Agent-Teams“ genannt.
00:00:30Sie wurden zeitgleich mit Opus 4.6 eingeführt.
00:00:33Obwohl dies noch eine experimentelle Funktion ist, haben wir sie bereits in mehreren Workflows implementiert,
00:00:37und die größte Verbesserung war, dass die benötigte Zeit für diese Aufgaben massiv reduziert wurde.
00:00:41Aber es ist aus gutem Grund experimentell und hat noch einige Ecken und Kanten, für die wir aber
00:00:44bereits kleine Lösungen für diese Probleme gefunden haben.
00:00:47Agent-Teams basieren auf der Idee, mehrere ClaudeCode-Instanzen zusammenarbeiten zu lassen.
00:00:51Jedes Teammitglied arbeitet an isolierten Aufgaben unter einer zentralen Verwaltung,
00:00:55die von einem einzigen Agenten gesteuert wird.
00:00:56Nun könnten Sie denken, dass dies den bereits existierenden Claude-Sub-Agenten sehr ähnlich klingt, da
00:01:00beide parallel laufen und Aufgaben aufteilen, aber sie sind nicht dasselbe.
00:01:03Denn Agent-Teams lösen genau das eine Problem, das das Sub-Agenten-Framework hat.
00:01:08Sub-Agenten können nicht miteinander kommunizieren und sind auf den Orchestrator-Agenten
00:01:12als Kommunikationsmedium angewiesen.
00:01:15Teammitglieder hingegen können direkt miteinander kommunizieren.
00:01:18Die Kernidee hinter Agent-Teams ist der Einsatz mehrerer ClaudeCode-Sitzungen, die kooperieren.
00:01:22Eine Sitzung fungiert als Teamleiter, koordiniert die Arbeit, weist Aufgaben zu und fasst Ergebnisse zusammen,
00:01:27während die Teammitglieder unabhängig in ihren eigenen Kontextfenstern arbeiten.
00:01:31Sub-Agenten haben zwar ihr eigenes Kontextfenster, melden das Ergebnis aber nur an den Aufrufer zurück.
00:01:34Bei Teams funktioniert das jedoch anders.
00:01:36Jedes Mitglied des Agenten-Teams ist eine völlig unabhängige Terminal-Sitzung.
00:01:40Sie werden nicht starr von einem Orchestrator eingeschränkt, der nur Aufgaben verteilt.
00:01:43Stattdessen werden diese Terminal-Sitzungen vom Haupt-Teamleiter geöffnet und geschlossen.
00:01:47Sie können Aufgaben bearbeiten, die Diskussion und Zusammenarbeit erfordern,
00:01:52da sie eben die Fähigkeit besitzen, zu kommunizieren.
00:01:54Ein Agent-Team besteht also im Wesentlichen aus einem Teamleiter und Teammitgliedern.
00:01:57Der Teamleiter ist der Hauptagent, der das Team erstellt und deren Arbeit koordiniert.
00:02:01Die Teammitglieder sind die Arbeiter, die die eigentlichen Aufgaben ausführen.
00:02:03Jedes Teammitglied erhält eine Aufgabenliste, die als geteiltes Verzeichnis fungiert.
00:02:07Jedes Mitglied identifiziert darin seine Aufgaben und führt diese aus.
00:02:10Zur Kommunikation verfügen sie außerdem über ein gemeinsames Postfach zum Austausch von Nachrichten.
00:02:15Die Frage war nun, wie das eigentlich funktioniert, wenn jedes Teammitglied unabhängig ist.
00:02:19Woher wissen sie, was die anderen Mitglieder gerade tun?
00:02:21Das funktioniert, weil alle Informationen über das Team, die Mitglieder und deren Aufgaben
00:02:26lokal im „.claude“-Ordner gespeichert und über den Aufgabennamen identifiziert werden.
00:02:30Dieses Feature ist noch experimentell und standardmäßig deaktiviert, daher kann es in dieser Phase
00:02:34noch zu Fehlern bei der Handhabung der Teammitglieder kommen.
00:02:36Um es auszuprobieren, mussten wir es manuell aktivieren.
00:02:38Dazu haben wir das ClaudeCode CLI-Flag für experimentelle Agent-Teams auf 1 gesetzt.
00:02:43Mit diesem aktivierten Flag standen die Agent-Teams für weitere Sitzungen zur Verfügung.
00:02:47Nach der Aktivierung konnten wir auf das Team-Feature in ClaudeCode zugreifen.
00:02:51Da es sich um ein experimentelles Feature handelt, mussten wir eine spezifische Wortwahl verwenden, um
00:02:55Claude mitzuteilen, dass wir ein Agent-Team für einen bestimmten Job nutzen wollen.
00:02:58Unser Team nutzt dieses Feature bereits zur Parallelisierung von Code-Reviews, damit Probleme
00:03:02gleichzeitig identifiziert und behoben werden können.
00:03:04Hierzu baten wir Claude, ein Teammitglied zum Finden von Fehlern im Code zu nutzen und
00:03:08ein weiteres, um die vom ersten Mitglied identifizierten Fehler direkt zu korrigieren.
00:03:11Wir mussten im Prompt sehr detailliert sein, damit der Prozess in die richtige Richtung läuft.
00:03:15Hätten Sub-Agenten dies übernommen, müssten sie Berichte in eine physische Datei schreiben,
00:03:19damit die anderen Agenten wissen, was zu tun ist.
00:03:21Aber wir wollten den Review-Prozess beschleunigen, indem dies ohne den Overhead
00:03:26des Schreibens in eine lokale Datei geschieht.
00:03:27Als wir den Prompt an ClaudeCode übergaben, wurden die Teammitglieder unter der Leitung
00:03:31des Teamleiters gestartet.
00:03:32Der leitende Agent gab den Prompt an die einzelnen Agenten weiter und wies ihnen ihre Aufgaben zu.
00:03:36Der erste Review-Agent begann mit der Arbeit und teilte nach der Analyse des Codes
00:03:40dem „Fixer“-Agenten die Fehler nacheinander per Nachricht mit.
00:03:42Dieser Agent priorisierte kritische Sicherheitsprobleme. Sobald der Fixer-Agent die
00:03:47Nachrichten erhielt, begann er mit der Implementierung, während der Review-Agent
00:03:51kontinuierlich nach weiteren Fehlern suchte.
00:03:53So kommunizierten sie ständig und meldeten die jeweils umgesetzten Änderungen zurück.
00:03:57Nachdem die kritischen Fehler behoben waren, widmeten sich beide Agenten
00:04:01den Problemen mit mittlerer Priorität.
00:04:02Review und Fehlerbehebung fanden gleichzeitig statt, was enorm viel Zeit sparte.
00:04:06Der Vorteil ist, dass man jedem Teammitglied auch Aufgaben manuell zuweisen oder ändern kann.
00:04:10Dadurch lässt sich die Arbeitsrichtung eines spezifischen Teammitglieds gezielt steuern.
00:04:14Nach Abschluss der Arbeit wurde die Kontrolle an den Hauptagenten zurückgegeben, welcher
00:04:18sicherstellt, dass alle Änderungen korrekt umgesetzt wurden, und die Agenten sauber beendet,
00:04:22damit deren Beendigung später keine Fehler verursacht.
00:04:26Sicherlich ist Ihnen aufgefallen, dass wir in diesen Videos sehr viel entwickeln.
00:04:28Alle Prompts, der Code, die Vorlagen – also all das, wofür man normalerweise pausieren
00:04:32und vom Bildschirm kopieren müsste – finden Sie in unserer Community zu jedem Video.
00:04:36Das gilt auch für alle vergangenen Videos.
00:04:37Links dazu finden Sie in der Beschreibung.
00:04:38Fehler in großem Stil zu finden und zu beheben ist super, aber oft gibt es Probleme,
00:04:43bei denen man einfach nicht herausfindet, was sie verursacht.
00:04:45In solchen Fällen können wir ein Agent-Team nutzen, um dieselbe App aus verschiedenen Perspektiven
00:04:49zu testen und sich dem Bug schrittweise zu nähern.
00:04:51Dabei können die Teammitglieder ihre Erkenntnisse austauschen und gemeinsam vorankommen.
00:04:55Wir baten Claude, einen Bug im Code zu finden und spezifizierten die Nutzung mehrerer Teammitglieder,
00:04:59damit diese das Problem aus verschiedenen Blickwinkeln angehen.
00:05:02Daraufhin wurden vier Sub-Agenten gestartet, die sich jeweils auf einen anderen Aspekt der App konzentrierten.
00:05:06Sie erhielten ähnliche Prompts vom Teamleiter und untersuchten die Fehler basierend auf
00:05:09ihrem spezifischen Bereich, während der Leiter wartete und anschließend
00:05:14die Ergebnisse ihrer Analysen auswertete.
00:05:16Ohne Teams hätten wir nur einen einzigen Thread gehabt, was viel länger gedauert hätte.
00:05:19Aber mit diesen Agenten verlief der Prozess deutlich schneller.
00:05:22Die Untersuchung war zügig abgeschlossen; die gesamte Recherche der Agenten dauerte etwa
00:05:272 bis 3 Minuten. Das ist eine enorme Verbesserung gegenüber einer linearen Prüfung,
00:05:31die locker 5 bis 10 Minuten beansprucht hätte.
00:05:33Beachten sollte man jedoch, dass dieser Ansatz viele Token verbraucht, da jeder Agent
00:05:37sein eigenes Kontextfenster hat. Hier ist also Vorsicht geboten.
00:05:40Nachdem die Agenten ihre Ergebnisse geliefert hatten und beendet wurden, verifizierte
00:05:45der Teamleiter das Ergebnis durch eine eigene Prüfung.
00:05:46Alle vier Agenten kamen zum selben Ergebnis und wiesen korrekt auf das Problem mit
00:05:50einer veralteten Closure („stale closure“) im Use-Effect hin.
00:05:52Genau dieser Teil wurde von allen vier Agenten markiert.
00:05:54Wenn Ihnen unsere Inhalte gefallen, drücken Sie gerne den Hype-Button. Das hilft uns,
00:05:59mehr solcher Videos zu erstellen und mehr Menschen zu erreichen.
00:06:02Dieses Agenten-Framework hat unsere Arbeitsweise bei langfristigen Aufgaben verändert, da
00:06:07Agenten sich nicht mehr nur auf die Dokumentation ihres Fortschritts verlassen müssen.
00:06:10Mit Agent-Teams können wir verschiedene Aspekte einer Anwendung parallel bearbeiten
00:06:14und sogar ein Mitglied ausschließlich für die Recherche abstellen.
00:06:16Als wir Claude den Prompt gaben, wurden 6 Agenten gestartet.
00:06:19Zwei kümmerten sich um die Recherche und legten das Fundament, während die anderen
00:06:23mit dem Bau der Seiten beschäftigt waren.
00:06:24Die „Builder“-Agenten wurden zunächst vom Fundament-Agenten blockiert, da dieser
00:06:28erst Pakete installieren und die Umgebung mit allen Abhängigkeiten vorbereiten musste.
00:06:32Jeder Agent erhielt einen spezifischen Prompt, der seine Aufgabe genau definierte.
00:06:35Die blockierten Agenten warteten auf das Freigabesignal vom Teamleiter.
00:06:38Sobald Recherche und Fundament fertig waren, wurden die restlichen Agenten freigeschaltet und
00:06:43begannen parallel mit der Implementierung ihrer jeweiligen App-Teile.
00:06:46Sie blieben im ständigen Austausch, um die Konsistenz zwischen den Komponenten zu wahren.
00:06:49Der Teamleiter koordinierte die Agenten und sendete jedem Agenten, der fertig war,
00:06:53eine Shutdown-Nachricht, um den Prozess sauber zu beenden.
00:06:57Der gesamte Vorgang verbrauchte etwa 170.000 Token des Kontextfensters, aber am Ende
00:07:02erhielten wir die gewünschte App – basierend auf einem einzigen Prompt.
00:07:05Wie erwähnt, haben wir beim Testen mehrere Wege gefunden,
00:07:09um Agent-Teams für uns noch effektiver zu machen. Diese Best Practices sind
00:07:13in AI Labs Pro verfügbar, damit Sie sie selbst ausprobieren können.
00:07:16Die erste Empfehlung gilt generell für alle Agenten und ist nicht nur auf die
00:07:20Agent-Team-Funktion beschränkt.
00:07:21Sie müssen den Arbeitsbereich des Agenten explizit einschränken.
00:07:25Das geht entweder über den Prompt, indem man Dateien für die Aufgabe vorgibt,
00:07:29oder indem man Dokumente im Projekt erstellt, die einzelne Aufgaben enthalten.
00:07:33So haben wir es gemacht: Für jede Zuweisung gab es ein eigenes Aufgabendokument,
00:07:38damit der Agent unabhängig und im richtigen Rahmen arbeiten kann.
00:07:41Ein weiterer Punkt: Die Agenten sollten an voneinander unabhängigen Aufgaben arbeiten.
00:07:45Wenn sie gleichzeitig dieselbe Datei bearbeiten, führt das zu Konflikten
00:07:49und Inhalte könnten gegenseitig überschrieben werden.
00:07:52Abgesehen davon haben wir bemerkt, dass der Hauptagent manchmal ungeduldig wird,
00:07:56wenn ein Teammitglied lange braucht, und dann anfängt, die Aufgabe selbst zu erledigen,
00:08:00statt auf das Teammitglied zu warten. Es ist also wichtig, den Hauptagenten daran zu erinnern,
00:08:04auf den Abschluss der Teammitglieder zu warten, bevor er fortfährt.
00:08:06Zudem müssen die Aufgaben die richtige Größe haben.
00:08:08Zu kleine Aufgaben erzeugen zu viel Koordinationsaufwand.
00:08:11Zu große Aufgaben erhöhen das Risiko von Fehlversuchen. Aufgaben müssen also
00:08:16ausgewogen und in sich abgeschlossen sein.
00:08:17Schließlich sollten Sie die Arbeit der Agenten überwachen.
00:08:19Wenn ein Agent nicht wie erwartet arbeitet, können Sie ihn anhalten und ihm
00:08:23neue Anweisungen geben.
00:08:25Diese Praktiken machen die Nutzung dieses experimentellen Features deutlich effektiver.
00:08:29Das bringt uns zum Ende dieses Videos.
00:08:31Wenn Sie den Kanal unterstützen und uns helfen möchten, weiterhin solche Videos zu machen,
00:08:35können Sie das über den „Super Thanks“-Button unten tun.
00:08:38Wie immer vielen Dank fürs Zuschauen, wir sehen uns im nächsten Video.