So habe ich meine Arbeit mit KI-Agenten revolutioniert

AAI LABS
Computing/SoftwareSmall Business/StartupsManagementInternet Technology

Transcript

00:00:00Co-work bietet Nicht-Entwicklern die mächtigen Funktionen von Cloud-Code, sodass sie
00:00:04echte Automatisierungen, Dokumenten-Workflows, Pipelines und Recherche-Aufgaben erstellen können,
00:00:10die bisher nur über das Terminal möglich waren.
00:00:11Doch die meisten erhalten immer noch Ergebnisse von geringer Qualität und beklagen,
00:00:15dass die Nutzung von Co-work ihre Limits aufbraucht.
00:00:17Das liegt nicht am Tool selbst, sondern daran, dass kein Aufwand
00:00:21in die Vorbereitung gesteckt wird.
00:00:22Es gibt nicht den einen richtigen Weg für das Pre-Setup; es ist immer eine Reihe von Schritten,
00:00:26um den Workflow genau auf Ihre Bedürfnisse zuzuschneiden.
00:00:28Ich weiß, wir haben in den meisten unserer bisherigen Videos über solche Best Practices gesprochen,
00:00:32aber wir haben einige neue entdeckt, die wirklich gut sind und großen Einfluss auf unsere Workflows haben.
00:00:37Das Erste, was Sie tun müssen, bevor Sie überhaupt anfangen, ist eine manifest.md für jeden
00:00:42Ordner zu erstellen, mit dem Sie arbeiten.
00:00:43Diese Datei liegt im Hauptverzeichnis des Ordners und enthält Anweisungen dazu,
00:00:47wie der Ordner aufgebaut ist.
00:00:48Für Nutzer von Cloud-Code entspricht diese Datei der claud.md-Datei.
00:00:52Wenn Sie, wie wir, in Ordnern arbeiten, die viele verschachtelte und strukturierte
00:00:56Informationen enthalten, hilft das Manifest enorm bei der Arbeit.
00:01:00Claude neigt dazu, sich zu verzetteln und irrelevante Daten aus falschen Dateien zu ziehen.
00:01:03Ohne Manifest-Datei versucht Claude im Ordner zu navigieren und zu raten,
00:01:07wo sich die richtige Datei tatsächlich befindet.
00:01:09Das bläht den Kontext unnötig auf, was dazu führt, dass falsche Quellen genutzt werden
00:01:14und die Qualität der Ergebnisse sinkt.
00:01:15Diese Datei legt fest, welche Dokumente die "Source of Truth" sind, welche Unterordner
00:01:20zu welchem Bereich gehören und was komplett ignoriert werden kann.
00:01:21Die manifest.md enthält drei Hierarchie-Ebenen, damit Claude weiß,
00:01:27welchen Dateien Priorität eingeräumt werden soll und welchen nicht.
00:01:28Tier 1 enthält alle Dateien, die das Modell immer laden sollte und die als Hauptquelle dienen;
00:01:33hier stehen alle Dateien, die auf keinen Fall übersprungen werden dürfen.
00:01:36Tier 2 umfasst Dateien, die nur bei Bedarf geladen werden sollen.
00:01:39Das sind Dateien, die man nicht sofort, aber eventuell später benötigt.
00:01:43Die dritte Ebene sind Archivdaten, also alte Versionen Ihrer Daten, die Sie
00:01:48nur aus Dokumentationsgründen behalten.
00:01:50Deshalb markieren wir sie mit: "Ignorieren, außer es wird explizit danach gefragt".
00:01:53Mit diesem Setup lädt Co-work bei jeder Anfrage zuerst
00:01:59die manifest.md-Datei, findet darüber die benötigten Daten
00:02:03und antwortet viel schneller und zuverlässiger als ohne diese Vorbereitung.
00:02:07Neben der manifest.md sollten Sie drei weitere Kontext-Dateien erstellen,
00:02:12die Ihre Identität definieren.
00:02:13Diese Dateien – "Über mich", "Brand Voice" und "Arbeitsstil" – erklären Claude,
00:02:19wie Sie Antworten bevorzugen, damit die KI weiß, wie sie sich verhalten soll.
00:02:20Das verhindert generische KI-Antworten, da Claude nun Ihren Arbeitsstil kennt.
00:02:25Wir haben diese Dateien im Claude-Kontextordner innerhalb des Dokumentenordners abgelegt
00:02:29und sie über die globalen Anweisungen überall für Claude zugänglich gemacht.
00:02:33Dies stellt sicher, dass Claude so antwortet, wie wir es brauchen,
00:02:38und sich nicht auf eine Weise verhält, die uns nicht gefällt.
00:02:39Diese Dateien sind nicht dazu gedacht, einmal erstellt und dann ewig genutzt zu werden.
00:02:42Sie müssen regelmäßig verfeinert werden. Wenn Claude Ihre Anweisungen
00:02:46nicht befolgt, prüfen Sie gemeinsam mit der KI, ob es am Prompt oder am Kontext liegt.
00:02:51In beiden Fällen können Sie die Dateien ergänzen, um Fehler zu beheben.
00:02:52In jedem Fall können Sie diese Dateien durch zusätzliche Zeilen korrigieren.
00:02:54Zusätzlich sollten Sie Memory-Dateien erstellen. Wenn Sie kontinuierlich
00:02:59in einem Ordner arbeiten, bleibt das Wissen zwischen den Sitzungen so erhalten.
00:03:03Das funktioniert ähnlich wie beim Programmieren: Dateien dienen als externer Speicher
00:03:08für alle getroffenen Entscheidungen und anstehenden Aufgaben.
00:03:10Der nächste Punkt wird oft ignoriert: die globalen Anweisungen.
00:03:13Viele lassen diese leer, dabei sind sie extrem mächtig, da sie vor allem anderen
00:03:17geladen werden – sogar noch vor Ihrem eigentlichen Prompt.
00:03:21Sie dienen als Ausgangspunkt für all Ihre Anfragen.
00:03:23Bei Claude-Code entspricht das den Anweisungen in der Claude.md-Datei im .Claude-Ordner
00:03:28Ihres Home-Verzeichnisses.
00:03:30In meinen globalen Anweisungen habe ich festgelegt, dass die manifest.md das Erste ist,
00:03:35das Claude prüfen soll, und wie sie darin navigieren muss.
00:03:37Es gibt aber noch weitere Praktiken, die die Arbeit mit Claude effizienter machen.
00:03:41Zum Beispiel lasse ich Claude Klärungsfragen stellen, bevor eine Aktion ausgeführt wird.
00:03:45So handelt die KI nicht blind nach eigenem Ermessen, sondern kann sich
00:03:48durch gezielte Rückfragen absichern.
00:03:50Ebenfalls wichtig für die globalen Einstellungen: Claude soll erst einen kurzen Plan zeigen,
00:03:54bevor sie loslegt.
00:03:55Wenn zuerst der Plan skizziert wird, sehen Sie sofort, ob die Richtung stimmt.
00:03:59Sie können nach Belieben weitere Regeln hinzufügen.
00:04:00Ich habe zum Beispiel angewiesen, Füllwörter zu vermeiden und Antworten nicht künstlich aufzublähen,
00:04:05was Claude normalerweise gerne tut.
00:04:06Zudem habe ich explizit festgelegt: Bei geringer Sicherheit soll Claude nachfragen,
00:04:11statt selbstbewusst falsche Antworten zu geben.
00:04:12All das trägt zu einer wesentlich besseren Erfahrung mit Co-work bei.
00:04:16Selbst bei vagen Prompts liefert dieses Setup präzise Antworten.
00:04:19Wie erwähnt nutzen wir Claude-Kontextdateien für Stimme und Persönlichkeit,
00:04:24daher habe ich auch dies global hinterlegt, damit immer darauf zugegriffen werden kann.
00:04:28Auch wenn wir es in unseren Videos ständig wiederholen: Sie müssen darauf achten,
00:04:32dass der Kontext für Ihren Agenten minimal bleibt, entweder durch den Prompt
00:04:36oder durch die Steuerung über Dateien wie die manifest.md.
00:04:41Je weniger Rauschen im Kontextfenster ist, desto besser ist die Performance.
00:04:44Die Prompts, Setup-Anweisungen und Vorlagen sind in AI Labs Pro verfügbar.
00:04:48Für alle, die es nicht wissen: Das ist unsere neue Community, in der Sie fertige
00:04:52Templates erhalten, die Sie direkt in Ihre Projekte übernehmen können.
00:04:57Wenn Ihnen unsere Arbeit gefällt und Sie den Kanal unterstützen möchten,
00:05:01ist dies der beste Weg; der Link steht in der Beschreibung.
00:05:03Ein weiterer wichtiger Punkt ist, den Endzustand dessen zu definieren, was Sie erreichen wollen,
00:05:07anstatt nur den Prozess zu beschreiben.
00:05:09Wie wir immer sagen: Wenn wir dem Modell zeigen, wie das korrekte Ergebnis aussieht,
00:05:13erbringt es bessere Leistungen und arbeitet zielstrebiger darauf hin.
00:05:16Dieses Ergebnis können Testfälle, das finale Format im Prompt oder ähnliche Referenzen sein.
00:05:21Dieses Prinzip gilt für alle Agenten, egal ob Co-work, Claude-Code oder andere.
00:05:26Als wir eine Umstrukturierung in unserem Ordner vornehmen wollten, haben wir genau festgelegt,
00:05:31welche Dateiversion in welchen Ordner soll und was jeder Ordner
00:05:36nach der Reorganisation enthalten soll, statt nur vage "Ordne die Dateien neu" zu sagen.
00:05:40Wir haben auch detailliert vorgegeben, wie mit Unterordnern umzugehen ist
00:05:45und was explizit nicht angerührt werden darf.
00:05:46Dieser Prompt erlaubte es Claude, das Ziel geordnet zu erreichen, was die Aufgabe
00:05:50erheblich erleichterte, da nun klar war, wie das Endergebnis aussehen muss.
00:05:54Wir müssen Claude explizit sagen, was bei Unsicherheit zu tun ist.
00:05:58Oft geben wir in unseren Prompts zwar klare Anweisungen, was zu tun ist
00:06:03und welcher Weg der beste ist, vergessen aber die Handhabung von Grenzfällen.
00:06:06In solchen Situationen fängt Claude an zu raten, was meistens schiefgeht,
00:06:10da die KI unseren bevorzugten Ansatz nicht kennt.
00:06:12Sie müssen also spezifisch festlegen, wie in diesen Fällen verfahren werden soll.
00:06:16Wir haben dies in unseren globalen Anweisungen so gelöst: Bei Unsicherheit
00:06:21soll Claude nachfragen und offen kommunizieren, wenn die Zuversicht gering ist.
00:06:25In den Dokumentenordnern unter "Arbeitsstil" haben wir zudem präzisiert,
00:06:30dass Unsicherheit benannt werden muss und auf keinen Fall geraten werden darf.
00:06:34Dadurch weist Claude nun vorab auf Unklarheiten hin, statt selbstbewusst falsch zu liegen.
00:06:39Bevor wir weitermachen, ein kurzes Wort zu unserem Sponsor Scrimba.
00:06:42Die meisten von uns lernen Programmieren durch Videos, bleiben dann hängen
00:06:46und wechseln ständig zwischen Browser und Editor, bis der Kopf raucht.
00:06:49Scrimba löst dieses Problem.
00:06:50Sie haben die Scrim-Technologie entwickelt, bei der der Videoplayer ein Live-Code-Editor ist.
00:06:54Sie können jederzeit pausieren, direkt in den Code des Dozenten klicken und sofort
00:06:58Änderungen vornehmen, um zu sehen, was passiert.
00:07:00Es ist wie Pair-Programming mit Experten, und so bleibt das Gelernte
00:07:04wirklich hängen.
00:07:05Scrimba bietet spezialisierte Trainings für AI Engineering und Full-Stack-Entwicklung an,
00:07:09um ein erstklassiges Portfolio aufzubauen.
00:07:11Für Studenten oder zur Interview-Vorbereitung helfen diese Deep Dives dabei,
00:07:15sich auf technische Screenings zu Datenstrukturen und Git vorzubereiten.
00:07:18Es ist der effizienteste Weg, um die Lücke zum professionellen Engineering zu schließen.
00:07:22Hören Sie auf mit passiven Tutorials und sammeln Sie echte Erfahrung
00:07:26durch interaktives Bauen.
00:07:27Starten Sie noch heute mit kostenlosen Kursen und nutzen Sie unseren Link
00:07:31im angepinnten Kommentar, um 20 % auf die Pro-Pläne zu sparen.
00:07:35Statt für jede Aufgabe eine neue Sitzung zu nutzen, sollten Sie verwandte Arbeiten
00:07:39in einer einzigen Session bündeln.
00:07:40Doch wie erkennt man, welche Aufgaben gruppiert werden können und welche nicht?
00:07:45Ein Hinweis ist, wenn Aufgaben denselben Kontext teilen,
00:07:49weil das Ergebnis der einen Aufgabe die Eingabe für die nächste ist.
00:07:51Beispielsweise umfasst die Erstellung eines monatlichen Budgetberichts
00:07:56oft mehrere miteinander verknüpfte Einzelschritte.
00:07:57In solchen Fällen gruppieren wir Aufgaben, damit sie schneller, günstiger
00:08:01und mit höherer Qualität erledigt werden.
00:08:02Das hilft auch, Sitzungslimits zu vermeiden, da Sie in weniger Sessions
00:08:06mehr Aufgaben abschließen.
00:08:08In unseren Prompts für Claude beginnen wir explizit mit einem Ziel, nennen dann
00:08:12den ersten Schritt, dann den nächsten und so weiter, bis das Ziel erreicht ist.
00:08:16Dieser Ansatz ermöglichte es uns, viel mehr Aufgaben in kürzerer Zeit zu bewältigen.
00:08:19Sind die Aufgaben jedoch nicht verknüpft, verschwendet das Batching
00:08:23nur Token und kann sogar zu fehlerhaften Ergebnissen führen.
00:08:26Batching muss übrigens nicht immer sequenziell erfolgen.
00:08:29Aufgaben, die gleichzeitig erledigt werden können, lassen sich durch den Einsatz
00:08:34paralleler Agenten integrieren.
00:08:35Claude kann den Bedarf an Parallelisierung oft selbst erkennen und ausführen.
00:08:39Es schadet jedoch nicht, dies im Prompt explizit zu erwähnen.
00:08:42Wir nutzen auch intensiv Sub-Agenten, um Aufgaben schneller und bequemer zu machen.
00:08:46Mit Sub-Agenten können viele Aufgaben gleichzeitig erledigt werden, wobei deren
00:08:50eigener Kontext verhindert, dass der Hauptkontext mit unnötigen Infos überladen wird.
00:08:55Beachten Sie jedoch, dass Sub-Agenten viele Token verbrauchen; setzen Sie sie
00:08:59daher nur ein, wenn es wirklich notwendig ist.
00:09:02Wenn Ihnen unsere Inhalte gefallen, drücken Sie gerne den Hype-Button,
00:09:06da uns das hilft, mehr Menschen zu erreichen und weiteren Content zu produzieren.
00:09:10Ein großer Vorteil von Co-work ist die Planung von Aufgaben, die wir früher
00:09:14manuell durch wiederholte Prompts erledigen mussten.
00:09:15Jetzt können wir eine ganze Reihe von täglichen Aufgaben terminieren.
00:09:18Diese geplanten Aufgaben laufen nur, wenn Ihr Computer an und der
00:09:23Claude-Desktop geöffnet ist – ein wichtiger Punkt.
00:09:24Da wir ohnehin ein System rund um die Uhr laufen hatten, um neue Ideen zu recherchieren,
00:09:29Tools zu tracken und in Discord zu berichten, ließen wir Co-work eine
00:09:34weitere Automatisierung planen.
00:09:35Wir nutzen den Schedule-Skill und ließen Claude Meeting-Notizen analysieren,
00:09:39in denen wir über neue Ideen und Tools sprechen, um daraus noch am selben Tag
00:09:44einen Bericht in diesem Ordner zu erstellen.
00:09:45Wir gaben ein Dateinamensformat vor und ließen direkt die wichtigsten Action-Items identifizieren.
00:09:49Claude stellte Rückfragen zur Häufigkeit und richtete die Aufgabe dann
00:09:54für uns als geplanten Task ein.
00:09:55Nun erhalten wir regelmäßig Berichte aus unseren Diskussionen über Notizen,
00:09:59Ideen und Tools, die wir in unseren Videos verwenden können.
00:10:02Dieser Prozess lässt sich durch Connectoren für Gmail oder Google Drive weiter verfeinern,
00:10:07um E-Mails direkt zu schreiben oder Dateien im Posteingang zu speichern.
00:10:11Das geht auch über Cron-Jobs in Claude-Code, die mit MCP-Tools
00:10:15und CLIs interagieren, um dieselbe Arbeit zu erledigen.
00:10:18Für einen effizienten Workflow sollten Plugins genutzt werden, um Funktionen zu bündeln.
00:10:22Jedes Plugin enthält ein Paket an Skills oder Befehlen sowie Sub-Agent-Integrationen,
00:10:27die auf einen Bereich spezialisiert sind, da sie auch maßgeschneiderte
00:10:32Anweisungen enthalten.
00:10:34Claude bietet bereits viele Plugins für Standardfälle, aber wir können auch eigene erstellen.
00:10:38Diese Plugins sind Open Source und auf GitHub verfügbar.
00:10:41Die Plugin-Suite enthält sogar ein Plugin zum Erstellen von Plugins.
00:10:44Als wir ein eigenes Plugin erstellen wollten, haben wir dies einfach im Chat angefordert,
00:10:49woraufhin der entsprechende Build-Skill ausgeführt wurde.
00:10:51Claude stellte uns in einer Sitzung einige Fragen und präsentierte dann einen Plan.
00:10:55Nachdem wir diesen genehmigt hatten, begann die KI mit der Erstellung.
00:10:58Das macht alles viel einfacher, da wir nicht mehr nur auf Plugins von anderen
00:11:02angewiesen sind, sondern eigene für unsere speziellen Fälle bauen können.
00:11:07Ebenfalls erwähnenswert ist die Nutzung von Skills.
00:11:09Wir haben bereits ausführlich erklärt, wie man einen guten Skill baut und
00:11:13den Prozess der Skill-Erstellung gezeigt – inklusive der Probleme,
00:11:17auf die wir dabei gestoßen sind.
00:11:18Diese Guides auf unserem Kanal helfen Ihnen dabei, Ihre eigenen Skills
00:11:22erfolgreich umzusetzen.
00:11:23Claude verfügt über viele Standard-Skills, aber maßgeschneiderte Skills
00:11:27für Ihre individuellen Anwendungsfälle sind oft der entscheidende Faktor.
00:11:31Schließlich müssen wir Co-work wie einen Angestellten behandeln, nicht wie ein Spielzeug.
00:11:35Co-work ist noch eine Research-Preview mit wenigen Schranken, was bedeutet,
00:11:39dass es Dinge ändern könnte, die nicht geändert werden sollten, wenn es nicht eingeschränkt wird.
00:11:42Wir müssen klare Grenzen setzen, um das Beste herauszuholen.
00:11:45Sensible Daten sollten in separaten Ordnern liegen; geben Sie nur frei, was nötig ist,
00:11:49um private Informationen zu schützen.
00:11:52Zudem müssen wir Aufgaben eng definieren, um gute Leistungen zu garantieren.
00:11:56Anweisungen wie "Nichts löschen" stellen sicher, dass Dateien sicher sind
00:12:00und die KI bei Bedarf erst nachfragt, genau wie wir es beim Prompting
00:12:04bereits gemacht haben.
00:12:05Es besteht auch die Gefahr von Prompt-Injections.
00:12:07Enthält ein Dokument schädliche Anweisungen, könnte Co-work diese ausführen und Probleme verursachen.
00:12:12Zudem verbraucht Co-work mehr Ressourcen als ein normaler Chat; bei exzessiver
00:12:17Nutzung ist das Kontext-Limit schnell erreicht.
00:12:19Man muss es also mit Bedacht einsetzen.
00:12:22Damit sind wir am Ende dieses Videos angelangt.
00:12:23Wenn Sie den Kanal unterstützen und uns helfen möchten, weiterhin solche Videos
00:12:27zu produzieren, können Sie das über den Super-Thanks-Button tun.
00:12:30Wie immer, danke fürs Zuschauen und bis zum nächsten Mal.

Key Takeaway

Der Erfolg mit KI-Agenten wie Co-work hängt maßgeblich von einer akribischen Vorbereitung der Dateistrukturen und klaren globalen Verhaltensregeln ab, um Qualität zu steigern und Ressourcen zu sparen.

Highlights

Die manifest.md als zentrales Werkzeug zur Strukturierung von Ordnerinhalten und zur Reduzierung von Kontextrauschen.

Einsatz globaler Anweisungen zur Definition von Verhaltensregeln wie das Einfordern von Klärungsfragen und Plänen.

Bedeutung der Definition des Endzustands statt nur der Beschreibung von Prozessen für präzisere Ergebnisse.

Effiziente Nutzung von Token durch Batching verwandter Aufgaben in einer einzigen Sitzung.

Erstellung maßgeschneiderter Plugins und Skills zur Automatisierung spezifischer Workflows.

Wichtigkeit der Sicherheit durch Eingrenzung des Zugriffs auf sensible Daten und Vermeidung von Prompt-Injections.

Timeline

Einführung in die Vorbereitung mit Manifest-Dateien

Der Sprecher erklärt, dass unzureichende Ergebnisse oft auf fehlende Vorbereitung statt auf das Tool selbst zurückzuführen sind. Das wichtigste Instrument hierfür ist die Datei manifest.md, die Claude hilft, sich in komplexen Ordnerstrukturen zurechtzufinden. Diese Datei definiert eine Hierarchie in drei Ebenen: Tier 1 für Hauptquellen, Tier 2 für bedarfsorientierte Daten und Tier 3 für Archivdaten. Ohne dieses Manifest neigt die KI dazu, irrelevante Informationen zu laden, was die Qualität der Antworten senkt und unnötige Token verbraucht. Durch diese Struktur wird die KI deutlich schneller und liefert zuverlässigere Ergebnisse aus der korrekten "Source of Truth".

Identitäts-Dateien und globale Anweisungen

In diesem Abschnitt wird die Bedeutung von Kontext-Dateien wie "Über mich", "Brand Voice" und "Arbeitsstil" hervorgehoben. Diese Dateien definieren die Identität des Nutzers und verhindern generische KI-Antworten, indem sie Claude genau vorgeben, wie die Kommunikation erfolgen soll. Zusätzlich werden globale Anweisungen als mächtiges Werkzeug eingeführt, da sie noch vor dem eigentlichen Prompt geladen werden. Der Sprecher empfiehlt Regeln wie das Einfordern von Rückfragen bei Unsicherheit oder das Erstellen eines kurzen Plans vor der Ausführung. Diese kontinuierliche Verfeinerung des Kontexts minimiert das Rauschen im Kontextfenster und verbessert die Performance erheblich.

Zieldefinition und effiziente Aufgabenbündelung

Ein entscheidender Faktor für bessere Ergebnisse ist die Definition des Endzustands einer Aufgabe anstelle einer reinen Prozessbeschreibung. Wenn die KI weiß, wie das fertige Produkt aussehen soll, arbeitet sie zielstrebiger und liefert präzisere Resultate, wie am Beispiel einer Ordner-Umstrukturierung gezeigt wird. Der Sprecher warnt davor, dass Claude bei Unsicherheit oft anfängt zu raten, was durch explizite Anweisungen zur Kommunikation von Unklarheiten verhindert werden muss. Es wird betont, dass Grenzfälle im Prompting oft vergessen werden, was zu Fehlern führt. Durch klare Vorgaben zur Handhabung von Zweifeln wird die Verlässlichkeit der Agenten massiv gesteigert.

Interaktives Lernen mit Scrimba

Dieser Teil des Videos ist eine gesponserte Segment über die Lernplattform Scrimba, die eine interaktive Lernmethode für Programmierung anbietet. Die Besonderheit liegt in der Scrim-Technologie, bei der der Videoplayer gleichzeitig ein Live-Code-Editor ist. Nutzer können das Video pausieren und direkt im Code des Dozenten experimentieren, was den Lerneffekt im Vergleich zu passiven Tutorials deutlich erhöht. Scrimba bietet spezialisierte Kurse für AI Engineering und Full-Stack-Entwicklung an, um professionelle Fähigkeiten aufzubauen. Dies dient als Empfehlung für Zuschauer, die ihre technischen Grundlagen für die Arbeit mit KI-Tools vertiefen möchten.

Batching, Parallelarbeit und Sub-Agenten

Der Sprecher erläutert die Strategie des Batchings, bei der verwandte Aufgaben in einer Sitzung gebündelt werden, um Token zu sparen und Sitzungslimits zu umgehen. Dies ist besonders sinnvoll, wenn Aufgaben denselben Kontext teilen oder aufeinander aufbauen. Zudem wird der Einsatz von parallelen Agenten und Sub-Agenten thematisiert, die komplexe Aufgaben gleichzeitig bearbeiten können, ohne den Hauptkontext zu überladen. Es wird jedoch darauf hingewiesen, dass Sub-Agenten einen hohen Token-Verbrauch haben und daher gezielt eingesetzt werden sollten. Die richtige Balance zwischen sequenzieller Abarbeitung und Parallelisierung ist entscheidend für einen effizienten Workflow.

Automatisierung und Plugin-Erstellung

Hier wird die Planung von wiederkehrenden Aufgaben über den Schedule-Skill von Co-work vorgestellt, wie etwa das tägliche Analysieren von Meeting-Notizen. Solche Automatisierungen können durch Connectoren für Gmail oder Google Drive sowie durch MCP-Tools weiter verfeinert werden. Ein weiteres Highlight ist die Möglichkeit, eigene Plugins zu erstellen, um spezifische Skill-Pakete für individuelle Anwendungsfälle zu bündeln. Claude kann dabei unterstützen, diese Plugins selbst zu bauen, indem die KI durch den Build-Prozess führt. Der Sprecher verweist zudem auf bereits existierende Guides auf seinem Kanal, die zeigen, wie man hochwertige Skills entwickelt.

Sicherheit und verantwortungsvoller Umgang

Abschließend wird gemahnt, KI-Agenten wie professionelle Angestellte und nicht wie Spielzeug zu behandeln, da sie in der aktuellen Research-Preview noch wenige Schranken haben. Sensible Daten sollten strikt getrennt werden, und es müssen klare Grenzen gesetzt werden, um ungewollte Änderungen oder Löschungen zu vermeiden. Das Risiko von Prompt-Injections durch schädliche Dokumente wird als ernstzunehmende Gefahr genannt. Da Co-work wesentlich mehr Ressourcen verbraucht als einfache Chats, ist ein bedachter Einsatz mit Blick auf das Kontext-Limit notwendig. Das Video endet mit einem Dank an die Unterstützer und einem Hinweis auf weitere Ressourcen in der Community.

Community Posts

View all posts