KI-Coding: Eine neue Ära beginnt

AAI LABS
Computing/SoftwareManagementInternet Technology

Transcript

00:00:00War Opus 4.6 das einzige Upgrade von Anthropic?
00:00:03Sie kennen bereits Sub-Agenten, bei denen jeder Agent als einzelne Einheit mit
00:00:07seinem eigenen Kontextfenster agiert.
00:00:09Aber diese Sub-Agenten scheiterten bei Aufgaben, die eine gegenseitige Koordination erforderten.
00:00:13In diesen Fällen musste der Orchestrator eingreifen, Antworten von einem Agenten nehmen und
00:00:17an einen anderen delegieren, oder die Agenten mussten auf Notizen im Projektordner zurückgreifen.
00:00:21Aufgrund dieser Kommunikationslücke wurden einfache Aufgaben oft viel zu kompliziert.
00:00:25Um dies zu beheben, hat Anthropic ein neues Upgrade für Sub-Agenten veröffentlicht und sie „Agent-Teams“ genannt.
00:00:30Sie wurden zeitgleich mit Opus 4.6 eingeführt.
00:00:33Obwohl dies noch eine experimentelle Funktion ist, haben wir sie bereits in mehreren Workflows implementiert,
00:00:37und die größte Verbesserung war, dass die benötigte Zeit für diese Aufgaben massiv reduziert wurde.
00:00:41Aber es ist aus gutem Grund experimentell und hat noch einige Ecken und Kanten, für die wir aber
00:00:44bereits kleine Lösungen für diese Probleme gefunden haben.
00:00:47Agent-Teams basieren auf der Idee, mehrere ClaudeCode-Instanzen zusammenarbeiten zu lassen.
00:00:51Jedes Teammitglied arbeitet an isolierten Aufgaben unter einer zentralen Verwaltung,
00:00:55die von einem einzigen Agenten gesteuert wird.
00:00:56Nun könnten Sie denken, dass dies den bereits existierenden Claude-Sub-Agenten sehr ähnlich klingt, da
00:01:00beide parallel laufen und Aufgaben aufteilen, aber sie sind nicht dasselbe.
00:01:03Denn Agent-Teams lösen genau das eine Problem, das das Sub-Agenten-Framework hat.
00:01:08Sub-Agenten können nicht miteinander kommunizieren und sind auf den Orchestrator-Agenten
00:01:12als Kommunikationsmedium angewiesen.
00:01:15Teammitglieder hingegen können direkt miteinander kommunizieren.
00:01:18Die Kernidee hinter Agent-Teams ist der Einsatz mehrerer ClaudeCode-Sitzungen, die kooperieren.
00:01:22Eine Sitzung fungiert als Teamleiter, koordiniert die Arbeit, weist Aufgaben zu und fasst Ergebnisse zusammen,
00:01:27während die Teammitglieder unabhängig in ihren eigenen Kontextfenstern arbeiten.
00:01:31Sub-Agenten haben zwar ihr eigenes Kontextfenster, melden das Ergebnis aber nur an den Aufrufer zurück.
00:01:34Bei Teams funktioniert das jedoch anders.
00:01:36Jedes Mitglied des Agenten-Teams ist eine völlig unabhängige Terminal-Sitzung.
00:01:40Sie werden nicht starr von einem Orchestrator eingeschränkt, der nur Aufgaben verteilt.
00:01:43Stattdessen werden diese Terminal-Sitzungen vom Haupt-Teamleiter geöffnet und geschlossen.
00:01:47Sie können Aufgaben bearbeiten, die Diskussion und Zusammenarbeit erfordern,
00:01:52da sie eben die Fähigkeit besitzen, zu kommunizieren.
00:01:54Ein Agent-Team besteht also im Wesentlichen aus einem Teamleiter und Teammitgliedern.
00:01:57Der Teamleiter ist der Hauptagent, der das Team erstellt und deren Arbeit koordiniert.
00:02:01Die Teammitglieder sind die Arbeiter, die die eigentlichen Aufgaben ausführen.
00:02:03Jedes Teammitglied erhält eine Aufgabenliste, die als geteiltes Verzeichnis fungiert.
00:02:07Jedes Mitglied identifiziert darin seine Aufgaben und führt diese aus.
00:02:10Zur Kommunikation verfügen sie außerdem über ein gemeinsames Postfach zum Austausch von Nachrichten.
00:02:15Die Frage war nun, wie das eigentlich funktioniert, wenn jedes Teammitglied unabhängig ist.
00:02:19Woher wissen sie, was die anderen Mitglieder gerade tun?
00:02:21Das funktioniert, weil alle Informationen über das Team, die Mitglieder und deren Aufgaben
00:02:26lokal im „.claude“-Ordner gespeichert und über den Aufgabennamen identifiziert werden.
00:02:30Dieses Feature ist noch experimentell und standardmäßig deaktiviert, daher kann es in dieser Phase
00:02:34noch zu Fehlern bei der Handhabung der Teammitglieder kommen.
00:02:36Um es auszuprobieren, mussten wir es manuell aktivieren.
00:02:38Dazu haben wir das ClaudeCode CLI-Flag für experimentelle Agent-Teams auf 1 gesetzt.
00:02:43Mit diesem aktivierten Flag standen die Agent-Teams für weitere Sitzungen zur Verfügung.
00:02:47Nach der Aktivierung konnten wir auf das Team-Feature in ClaudeCode zugreifen.
00:02:51Da es sich um ein experimentelles Feature handelt, mussten wir eine spezifische Wortwahl verwenden, um
00:02:55Claude mitzuteilen, dass wir ein Agent-Team für einen bestimmten Job nutzen wollen.
00:02:58Unser Team nutzt dieses Feature bereits zur Parallelisierung von Code-Reviews, damit Probleme
00:03:02gleichzeitig identifiziert und behoben werden können.
00:03:04Hierzu baten wir Claude, ein Teammitglied zum Finden von Fehlern im Code zu nutzen und
00:03:08ein weiteres, um die vom ersten Mitglied identifizierten Fehler direkt zu korrigieren.
00:03:11Wir mussten im Prompt sehr detailliert sein, damit der Prozess in die richtige Richtung läuft.
00:03:15Hätten Sub-Agenten dies übernommen, müssten sie Berichte in eine physische Datei schreiben,
00:03:19damit die anderen Agenten wissen, was zu tun ist.
00:03:21Aber wir wollten den Review-Prozess beschleunigen, indem dies ohne den Overhead
00:03:26des Schreibens in eine lokale Datei geschieht.
00:03:27Als wir den Prompt an ClaudeCode übergaben, wurden die Teammitglieder unter der Leitung
00:03:31des Teamleiters gestartet.
00:03:32Der leitende Agent gab den Prompt an die einzelnen Agenten weiter und wies ihnen ihre Aufgaben zu.
00:03:36Der erste Review-Agent begann mit der Arbeit und teilte nach der Analyse des Codes
00:03:40dem „Fixer“-Agenten die Fehler nacheinander per Nachricht mit.
00:03:42Dieser Agent priorisierte kritische Sicherheitsprobleme. Sobald der Fixer-Agent die
00:03:47Nachrichten erhielt, begann er mit der Implementierung, während der Review-Agent
00:03:51kontinuierlich nach weiteren Fehlern suchte.
00:03:53So kommunizierten sie ständig und meldeten die jeweils umgesetzten Änderungen zurück.
00:03:57Nachdem die kritischen Fehler behoben waren, widmeten sich beide Agenten
00:04:01den Problemen mit mittlerer Priorität.
00:04:02Review und Fehlerbehebung fanden gleichzeitig statt, was enorm viel Zeit sparte.
00:04:06Der Vorteil ist, dass man jedem Teammitglied auch Aufgaben manuell zuweisen oder ändern kann.
00:04:10Dadurch lässt sich die Arbeitsrichtung eines spezifischen Teammitglieds gezielt steuern.
00:04:14Nach Abschluss der Arbeit wurde die Kontrolle an den Hauptagenten zurückgegeben, welcher
00:04:18sicherstellt, dass alle Änderungen korrekt umgesetzt wurden, und die Agenten sauber beendet,
00:04:22damit deren Beendigung später keine Fehler verursacht.
00:04:26Sicherlich ist Ihnen aufgefallen, dass wir in diesen Videos sehr viel entwickeln.
00:04:28Alle Prompts, der Code, die Vorlagen – also all das, wofür man normalerweise pausieren
00:04:32und vom Bildschirm kopieren müsste – finden Sie in unserer Community zu jedem Video.
00:04:36Das gilt auch für alle vergangenen Videos.
00:04:37Links dazu finden Sie in der Beschreibung.
00:04:38Fehler in großem Stil zu finden und zu beheben ist super, aber oft gibt es Probleme,
00:04:43bei denen man einfach nicht herausfindet, was sie verursacht.
00:04:45In solchen Fällen können wir ein Agent-Team nutzen, um dieselbe App aus verschiedenen Perspektiven
00:04:49zu testen und sich dem Bug schrittweise zu nähern.
00:04:51Dabei können die Teammitglieder ihre Erkenntnisse austauschen und gemeinsam vorankommen.
00:04:55Wir baten Claude, einen Bug im Code zu finden und spezifizierten die Nutzung mehrerer Teammitglieder,
00:04:59damit diese das Problem aus verschiedenen Blickwinkeln angehen.
00:05:02Daraufhin wurden vier Sub-Agenten gestartet, die sich jeweils auf einen anderen Aspekt der App konzentrierten.
00:05:06Sie erhielten ähnliche Prompts vom Teamleiter und untersuchten die Fehler basierend auf
00:05:09ihrem spezifischen Bereich, während der Leiter wartete und anschließend
00:05:14die Ergebnisse ihrer Analysen auswertete.
00:05:16Ohne Teams hätten wir nur einen einzigen Thread gehabt, was viel länger gedauert hätte.
00:05:19Aber mit diesen Agenten verlief der Prozess deutlich schneller.
00:05:22Die Untersuchung war zügig abgeschlossen; die gesamte Recherche der Agenten dauerte etwa
00:05:272 bis 3 Minuten. Das ist eine enorme Verbesserung gegenüber einer linearen Prüfung,
00:05:31die locker 5 bis 10 Minuten beansprucht hätte.
00:05:33Beachten sollte man jedoch, dass dieser Ansatz viele Token verbraucht, da jeder Agent
00:05:37sein eigenes Kontextfenster hat. Hier ist also Vorsicht geboten.
00:05:40Nachdem die Agenten ihre Ergebnisse geliefert hatten und beendet wurden, verifizierte
00:05:45der Teamleiter das Ergebnis durch eine eigene Prüfung.
00:05:46Alle vier Agenten kamen zum selben Ergebnis und wiesen korrekt auf das Problem mit
00:05:50einer veralteten Closure („stale closure“) im Use-Effect hin.
00:05:52Genau dieser Teil wurde von allen vier Agenten markiert.
00:05:54Wenn Ihnen unsere Inhalte gefallen, drücken Sie gerne den Hype-Button. Das hilft uns,
00:05:59mehr solcher Videos zu erstellen und mehr Menschen zu erreichen.
00:06:02Dieses Agenten-Framework hat unsere Arbeitsweise bei langfristigen Aufgaben verändert, da
00:06:07Agenten sich nicht mehr nur auf die Dokumentation ihres Fortschritts verlassen müssen.
00:06:10Mit Agent-Teams können wir verschiedene Aspekte einer Anwendung parallel bearbeiten
00:06:14und sogar ein Mitglied ausschließlich für die Recherche abstellen.
00:06:16Als wir Claude den Prompt gaben, wurden 6 Agenten gestartet.
00:06:19Zwei kümmerten sich um die Recherche und legten das Fundament, während die anderen
00:06:23mit dem Bau der Seiten beschäftigt waren.
00:06:24Die „Builder“-Agenten wurden zunächst vom Fundament-Agenten blockiert, da dieser
00:06:28erst Pakete installieren und die Umgebung mit allen Abhängigkeiten vorbereiten musste.
00:06:32Jeder Agent erhielt einen spezifischen Prompt, der seine Aufgabe genau definierte.
00:06:35Die blockierten Agenten warteten auf das Freigabesignal vom Teamleiter.
00:06:38Sobald Recherche und Fundament fertig waren, wurden die restlichen Agenten freigeschaltet und
00:06:43begannen parallel mit der Implementierung ihrer jeweiligen App-Teile.
00:06:46Sie blieben im ständigen Austausch, um die Konsistenz zwischen den Komponenten zu wahren.
00:06:49Der Teamleiter koordinierte die Agenten und sendete jedem Agenten, der fertig war,
00:06:53eine Shutdown-Nachricht, um den Prozess sauber zu beenden.
00:06:57Der gesamte Vorgang verbrauchte etwa 170.000 Token des Kontextfensters, aber am Ende
00:07:02erhielten wir die gewünschte App – basierend auf einem einzigen Prompt.
00:07:05Wie erwähnt, haben wir beim Testen mehrere Wege gefunden,
00:07:09um Agent-Teams für uns noch effektiver zu machen. Diese Best Practices sind
00:07:13in AI Labs Pro verfügbar, damit Sie sie selbst ausprobieren können.
00:07:16Die erste Empfehlung gilt generell für alle Agenten und ist nicht nur auf die
00:07:20Agent-Team-Funktion beschränkt.
00:07:21Sie müssen den Arbeitsbereich des Agenten explizit einschränken.
00:07:25Das geht entweder über den Prompt, indem man Dateien für die Aufgabe vorgibt,
00:07:29oder indem man Dokumente im Projekt erstellt, die einzelne Aufgaben enthalten.
00:07:33So haben wir es gemacht: Für jede Zuweisung gab es ein eigenes Aufgabendokument,
00:07:38damit der Agent unabhängig und im richtigen Rahmen arbeiten kann.
00:07:41Ein weiterer Punkt: Die Agenten sollten an voneinander unabhängigen Aufgaben arbeiten.
00:07:45Wenn sie gleichzeitig dieselbe Datei bearbeiten, führt das zu Konflikten
00:07:49und Inhalte könnten gegenseitig überschrieben werden.
00:07:52Abgesehen davon haben wir bemerkt, dass der Hauptagent manchmal ungeduldig wird,
00:07:56wenn ein Teammitglied lange braucht, und dann anfängt, die Aufgabe selbst zu erledigen,
00:08:00statt auf das Teammitglied zu warten. Es ist also wichtig, den Hauptagenten daran zu erinnern,
00:08:04auf den Abschluss der Teammitglieder zu warten, bevor er fortfährt.
00:08:06Zudem müssen die Aufgaben die richtige Größe haben.
00:08:08Zu kleine Aufgaben erzeugen zu viel Koordinationsaufwand.
00:08:11Zu große Aufgaben erhöhen das Risiko von Fehlversuchen. Aufgaben müssen also
00:08:16ausgewogen und in sich abgeschlossen sein.
00:08:17Schließlich sollten Sie die Arbeit der Agenten überwachen.
00:08:19Wenn ein Agent nicht wie erwartet arbeitet, können Sie ihn anhalten und ihm
00:08:23neue Anweisungen geben.
00:08:25Diese Praktiken machen die Nutzung dieses experimentellen Features deutlich effektiver.
00:08:29Das bringt uns zum Ende dieses Videos.
00:08:31Wenn Sie den Kanal unterstützen und uns helfen möchten, weiterhin solche Videos zu machen,
00:08:35können Sie das über den „Super Thanks“-Button unten tun.
00:08:38Wie immer vielen Dank fürs Zuschauen, wir sehen uns im nächsten Video.

Key Takeaway

Die neuen Agent-Teams von Anthropic ermöglichen durch direkte Kommunikation und parallele Ausführung eine massive Beschleunigung komplexer Entwicklungsaufgaben, erfordern jedoch ein präzises Management der Aufgabenverteilung und des Token-Verbrauchs.

Highlights

Anthropic führt mit Opus 4.6 das experimentelle Feature "Agent-Teams

Timeline

Einführung in Agent-Teams und Abgrenzung zu Sub-Agenten

Der Sprecher führt das neue Upgrade von Anthropic ein, das zeitgleich mit Opus 4.6 erschienen ist und die bisherigen Sub-Agenten ergänzt. Während herkömmliche Sub-Agenten isoliert arbeiten und einen Orchestrator für die Kommunikation benötigen, können die neuen Agent-Teams direkt interagieren. Diese Kommunikationslücke führte früher oft dazu, dass einfache Aufgaben unnötig kompliziert wurden oder manuelles Eingreifen erforderten. Das neue Framework zielt darauf ab, diese Reibungsverluste durch eine bessere Koordination zu eliminieren. Obwohl die Funktion noch experimentell ist, zeigt sie bereits jetzt eine massive Reduzierung der Bearbeitungszeit in internen Workflows.

Struktur und Funktionsweise der ClaudeCode-Instanzen

In diesem Abschnitt wird die technische Architektur der Agent-Teams erläutert, die auf mehreren kooperierenden ClaudeCode-Sitzungen basiert. Ein Teamleiter übernimmt die Rolle der zentralen Verwaltung, weist Aufgaben zu und fasst die Endergebnisse der Teammitglieder zusammen. Jedes Teammitglied agiert als völlig unabhängige Terminal-Sitzung mit eigenem Kontextfenster, was eine echte Parallelisierung ermöglicht. Die Synchronisation der Fortschritte erfolgt lokal im ".claude"-Verzeichnis, wobei ein gemeinsames Postfach den Nachrichtenaustausch sicherstellt. Um dieses Feature zu nutzen, muss der Anwender das experimentelle Flag in der CLI manuell auf den Wert 1 setzen.

Praxisbeispiel: Parallele Code-Reviews und Fehlerbehebung

Das Video demonstriert einen konkreten Anwendungsfall, bei dem ein Teammitglied Fehler sucht, während ein zweites diese sofort korrigiert. Durch diesen Workflow entfällt der Overhead, Berichte erst in physische Dateien schreiben zu müssen, da die Agenten sich direkt per Nachricht abstimmen. Der Teamleiter startet die Prozesse und delegiert die Aufgaben gemäß der Priorität, wobei beispielsweise kritische Sicherheitslücken zuerst behandelt werden. Dieser synchrone Prozess spart enorm viel Zeit im Vergleich zur herkömmlichen, linearen Arbeitsweise einer einzelnen KI-Instanz. Am Ende validiert der Hauptagent alle Änderungen und sorgt für eine saubere Beendigung der jeweiligen Sitzungen.

Effizienzsteigerung beim Debugging durch Multiperspektivität

Hier wird gezeigt, wie Agent-Teams genutzt werden können, um komplexe Bugs aus verschiedenen Blickwinkeln gleichzeitig zu analysieren. Im Beispiel identifizieren vier gleichzeitig laufende Agenten innerhalb von nur 2 bis 3 Minuten ein Problem mit einer veralteten Closure in einem React Use-Effect. Eine lineare Prüfung durch einen einzelnen Thread hätte im Gegensatz dazu etwa 5 bis 10 Minuten in Anspruch genommen. Der Sprecher warnt jedoch vor dem hohen Token-Verbrauch, da jeder Agent sein eigenes Kontextfenster mit Informationen füllen muss. Dennoch bietet die Konsensbildung durch mehrere unabhängige Analysen eine deutlich höhere Zuverlässigkeit bei der Fehlerdiagnose.

Komplexe App-Entwicklung und Ressourcenmanagement

Der Sprecher beschreibt die Erstellung einer kompletten Anwendung basierend auf einem einzigen Prompt unter Einsatz von sechs Agenten. Zwei Agenten übernehmen die Recherche und legen das Fundament, während die anderen vier als "Builder" fungieren und parallel die einzelnen Seiten implementieren. Es wird deutlich, dass Agenten auch blockiert werden können, bis notwendige Abhängigkeiten oder Umgebungen durch andere Teammitglieder vorbereitet wurden. Der gesamte Prozess verbrauchte in diesem Szenario etwa 170.000 Token, führte aber zu einer konsistenten und funktionsfähigen App. Diese Arbeitsweise markiert einen Wendepunkt für langfristige und umfangreiche Entwicklungsaufgaben durch KI.

Best Practices und Empfehlungen für den Einsatz

Zum Abschluss gibt das Video wertvolle Tipps für die effektive Nutzung der experimentellen Team-Funktion. Es ist essenziell, den Arbeitsbereich der Agenten explizit einzuschränken, um Konflikte beim gleichzeitigen Bearbeiten derselben Dateien zu vermeiden. Zudem müssen Aufgaben eine ausgewogene Größe haben: Zu kleine Aufgaben verursachen zu viel Koordinationsaufwand, während zu große Aufgaben fehleranfällig sind. Ein wichtiger Hinweis ist die Geduld des Hauptagenten, der manchmal dazu neigt, Aufgaben selbst zu übernehmen, anstatt auf die Teammitglieder zu warten. Der Sprecher betont, dass eine kontinuierliche Überwachung und gelegentliche manuelle Steuerung der Agenten die besten Ergebnisse liefert.

Community Posts

View all posts