00:00:00Es gibt viele KI-Code-Editoren, von denen jeder seine eigenen Tools und Funktionen besitzt, die ihn auszeichnen.
00:00:04Claude Code ist wohl der beste, besonders mit dem Opus-Modell, aber er ist auch teuer.
00:00:09Auf der anderen Seite ist Cursor ein Favorit unter Entwicklern, die den Code gerne direkt neben den Aktionen des Agenten sehen, aber er hat auch seine Schwächen.
00:00:16Google hat zudem Anti-Gravity mit Gemini 3 veröffentlicht, das aufgrund des Modells und der kostenlosen Nutzung schnell an Beliebtheit gewann.
00:00:23Es ist zwar neuer als Claude Code und Cursor, hat aber viele Dinge besser umgesetzt als Cursor.
00:00:28Seit KI-gestütztes Programmieren immer leistungsfähiger wird, haben viele Leute ihre eigenen Workflows mit diesen Tools entwickelt.
00:00:35Der Schlüssel zu jedem guten Workflow ist jedoch die Effizienz bei der Verwaltung des Kontextes.
00:00:39Zuvor hatte Anthropic ein Agent-Harness für langwierige Aufgaben veröffentlicht, und nun hat Cursor ein eigenes Harness herausgebracht, um die Nutzung von Cursor durch maximale Ausnutzung seiner Fähigkeiten deutlich zu verbessern.
00:00:50Die im Artikel genannten Prinzipien gelten weitgehend für alle Agenten, daher übertrage ich diese nun auf Googles Anti-Gravity.
00:00:57Es ist vielleicht noch nicht das Beste, verfügt aber über Funktionen, die es von den anderen abheben.
00:01:01Wir haben heute viel zu besprechen, da sich die Performance von Anti-Gravity durch dieses Harness erheblich verbessert hat.
00:01:28Zuletzt geht es darum, wie Sie als Nutzer damit interagieren, wie Sie prompten und wie Sie auf die Antworten reagieren.
00:01:38Das Harness ist wichtig, da verschiedene Modelle unterschiedlich auf denselben Prompt reagieren, da jedes Modell seine eigenen Stärken hat und in der Umgebung am besten funktioniert, für die es trainiert wurde.
00:01:48Ein Modell, das in einer Shell-basierten Umgebung trainiert wurde, bevorzugt beispielsweise GREP gegenüber einem speziellen Suchwerkzeug.
00:01:54Das ist wichtig, da wir wissen, dass einige Modelle wie Claude hervorragend mit XML-Prompts umgehen können, während andere besser mit Markdown funktionieren.
00:02:00Daher ist es entscheidend, dass das verwendete Harness genau auf das jeweilige Modell zugeschnitten ist.
00:02:04Eine Planung vor der Implementierung ist unerlässlich, damit der Code auch Ihren Erwartungen entspricht.
00:02:10Erfahrene Entwickler planen eher, bevor sie Code generieren, da dies zum klaren Durchdenken zwingt und dem Agenten konkrete Ziele vorgibt.
00:02:18Die Planungsfunktion von Anti-Gravity gefällt mir am besten, da sich der Plan durch Kommentare ganz einfach überarbeiten lässt.
00:02:24Als ich im Planungsmodus startete, analysierte er meine Anweisungen und die bestehende Codebasis gründlich und erstellte dann einen detaillierten Plan.
00:02:30Obwohl das Durchlesen des Plans mühsam war, ist es wichtig, ihn sorgfältig zu prüfen, damit die Umsetzung der Vision entspricht – lesen Sie ihn also unbedingt gründlich durch.
00:02:38Für Änderungen musste ich lediglich die Zeilen kommentieren, die nicht meinen Zielen entsprachen, und das Tool passte den Plan entsprechend an.
00:02:46Es ist wichtig, den Plan so lange zu verfeinern, bis er perfekt ist.
00:02:49Sobald dies erledigt ist, kann der Agent alles autonom umsetzen.
00:02:52Selbst wenn die Umsetzung nicht Ihren Wünschen entspricht, ist es besser, in den Planungsmodus zurückzukehren und den Plan zu bearbeiten, anstatt Follow-up-Prompts zu nutzen.
00:03:00Danach muss der Agent mit dem richtigen Kontext arbeiten.
00:03:03Aber vorher noch ein Wort von unserem Sponsor.
00:03:05Luma AI und ihr neues Tool Dream Machine, Ray3 Modify.
00:03:08Wer schon einmal mit KI-Video gearbeitet hat, kennt den Frust: Man generiert etwas Cooles, aber sobald man den Stil oder die Szene ändern will, verliert der Charakter seine Form, die Bewegung wirkt unnatürlich und man muss alles neu generieren.
00:03:18Ray3 Modify löst genau dieses Problem.
00:03:20Zum ersten Mal fühlt sich KI-Video wirklich gesteuert an und nicht wie bloßes Erraten.
00:03:23Sie können einen bestehenden Clip nehmen, sogar eine echte Aufnahme, und die Welt, die Beleuchtung oder den filmischen Stil transformieren, während Identität, Bewegung und Emotionen des Charakters erhalten bleiben.
00:03:33Die Performance bleibt fixiert, der Look entwickelt sich genau so, wie Sie es wollen.
00:03:36Mit Charakter-Referenzen und modifizierbaren Keyframes kontrollieren Sie, was über verschiedene Aufnahmen hinweg konsistent bleibt und was sich ändert.
00:03:42Perfekt für Hybrid-Workflows, Kurzfilme, Musikvideos und cineastische Konzepte.
00:03:47Sogar für kleinere Produktionen.
00:03:48Ehrlich gesagt fühlt sich das nach echter KI-Postproduktion an.
00:03:51Hören Sie auf zu raten. Fangen Sie an Regie zu führen.
00:03:53Schauen Sie sich Ray3 Modify im angepinnten Kommentar an oder scannen Sie den QR-Code, um zu sehen, was möglich ist.
00:03:58Sobald Sie Ihre Planung perfektioniert haben, besteht Ihre Aufgabe darin, jedem Agenten den Kontext zu liefern, den er für die Aufgabe benötigt.
00:04:04Ein Fehler, den viele machen, ist, jede Datei manuell zu taggen.
00:04:08Das müssen Sie nicht manuell tun, da Agenten über leistungsstarke Suchwerkzeuge verfügen, die Kontext bei Bedarf abrufen können.
00:04:13Manuelles Taggen lädt alles in den Kontext, auch wenn gar nicht alle Zeilen benötigt werden.
00:04:18Agenten können Grep nutzen, um genau die benötigten Segmente zu laden.
00:04:21Wenn ich zum Beispiel eine Änderung an der Registrierungsseite vornehmen möchte, würde das Taggen der Datei die gesamte Komponente mit über 200 Zeilen in den Kontext laden und ihn unnötig aufblähen.
00:04:30Obwohl eigentlich nur eine Funktion von etwa 50 Zeilen benötigt wird, würden alle restlichen, unnötigen Zeilen trotzdem einbezogen werden.
00:04:38Verlassen Sie sich lieber auf das Suchwerkzeug des Agenten, um nach der benötigten Funktion zu greppen, anstatt Dateien manuell zu taggen.
00:04:43Sie müssen nicht alles in einer einzigen Konversation erledigen.
00:04:45Beginnen Sie einen neuen Chat für jede neue Aufgabe oder immer dann, wenn der Agent unpräzise wird oder dieselben Fehler wiederholt.
00:04:52Im Grunde sollten Sie eine neue Konversation starten, sobald Sie eine logische Arbeitseinheit abgeschlossen haben.
00:04:57Ich starte zum Beispiel für jedes neue Feature einen neuen Chat und beginne wie gewünscht mit der Planung für dieses Feature.
00:05:04Auf diese Weise sind alle Aufgaben isoliert und genau so, wie ich sie brauche.
00:05:07Nur wenn Sie am selben Feature arbeiten, denselben Kontext aus der Diskussion benötigen oder ein vom Agenten implementiertes Feature debuggen, ist kein neuer Chat nötig.
00:05:16In allen anderen Fällen ist es besser, das „Rauschen“ durch eine neue Konversation zu reduzieren.
00:05:21Die Qualität der Antworten des Agenten ist eigentlich ein guter Indikator dafür, wann Sie einen neuen Chat starten sollten.
00:05:26Wenn Sie sich auf Details aus früheren Chats beziehen wollen, können Sie diese direkt im Chat erwähnen, anstatt den Agenten erneut durch alles hindurchzuführen.
00:05:35Dadurch kann der Agent den Kontext intelligent erfassen und selektiv nur die Informationen aus dem Chatverlauf lesen, die er wirklich braucht.
00:05:43Die Fähigkeiten des Agenten lassen sich durch Regeln und Skills erweitern.
00:05:47Sie können sein Verhalten anpassen, indem Sie Regeln für Ihr Projekt definieren – also spezifische Richtlinien oder Best Practices, die der Agent konsequent befolgen soll.
00:05:55Anti-Gravity macht es einfach, diese Anpassungen entweder lokal oder global hinzuzufügen.
00:06:00Um eine Richtlinie hinzuzufügen, müssen Sie die Regel einfach in den Projekt-Scope aufnehmen.
00:06:03Diese Regeln werden im Ordner .agent gespeichert, der einen Unterordner „rules“ mit Markdown-Dateien für die Anweisungen enthält.
00:06:09Ich habe beispielsweise eine Regel hinzugefügt, um das Frontend VCAG-konform zu gestalten.
00:06:13Sobald die Regel hinzugefügt und Anti-Gravity eine Aufgabe zugewiesen wurde, erstellt der Agent einen Plan, der die Regel berücksichtigt – inklusive Label-Tags für Inputs und weiterer Details, um die gesamte Seite VCAG-konform zu machen.
00:06:24Sie können so viele Regeln hinzufügen, wie Ihr Workspace benötigt, um die Fähigkeiten des Agenten zu steuern und zu erweitern.
00:06:29Genauso wurden Agent-Skills in Anti-Gravity nach demselben offenen Standard von Anthropic hinzugefügt, der Anweisungen, Skripte und domänenspezifisches Wissen enthält.
00:06:38Skills werden dynamisch geladen, wenn der Agent sie für relevant hält, wodurch der Kontext übersichtlich bleibt.
00:06:43Alle Skills für Anti-Gravity befinden sich im .agent-Ordner.
00:06:47Jeder Skill enthält eine spezialisierte .md-Datei mit dem Namen, einer Beschreibung für den Kontext und allen Details zur Anwendung des Skills.
00:06:55Der Zugriff auf andere Referenzen und Skripte ist in den jeweiligen Ordnern gespeichert.
00:06:59Die Nutzung von Skills in Anti-Gravity ist denkbar einfach: Man gibt an, welchen Skill man für welche Aufgabe nutzen möchte.
00:07:05Ich habe Anti-Gravity gebeten, den Skill „Test-Spezialist“ zu nutzen, um Testfälle für mein Projekt zu schreiben, und es hat basierend auf den Skill-Richtlinien einen kompletten Testplan erstellt.
00:07:14Dabei wurden alle genannten Bibliotheken, Skripte und Richtlinien des Skills genutzt, um die Aufgabe zu erfüllen.
00:07:21Modelle werden immer besser in der Bildanalyse, daher sollten wir uns mehr darauf verlassen und Bilder in unsere Prompts einbeziehen, um das Verständnis zu verbessern.
00:07:29Anstatt ein Design mühsam mit Worten zu beschreiben, können Sie einfach einen Screenshot des Abschnitts machen, den Sie implementieren möchten.
00:07:35Fügen Sie den Screenshot in Anti-Gravity ein und bitten Sie das Tool, diesen Bereich exakt so umzusetzen.
00:07:41Durch die Bildanalyse-Fähigkeiten kann die KI das Bild vollständig erfassen und umsetzen.
00:07:45Besonders oft nutze ich Bilder auch für das Debugging von Fehlern, da sich UI-Probleme leichter mit einem Screenshot als mit Worten erklären lassen.
00:07:54Wann immer ich UI-Probleme habe, mache ich einen Screenshot, gebe ihn an Anti-Gravity weiter, und es behebt den Fehler für mich.
00:08:00Anstatt uns blindlings in den Code zu stürzen, müssen wir Best Practices der Softwareentwicklung auch bei der KI-Entwicklung befolgen.
00:08:06Es gibt einige gängige Workflows, die gut mit Agenten funktionieren. Der erste ist die testgetriebene Entwicklung (TDD), bei der der Agent zuerst Tests schreibt und dann den Code, um diese Tests zu erfüllen.
00:08:15TDD mit KI-Agenten funktioniert deshalb so gut, weil sie ein klares Ziel haben, auf das sie optimieren können; sie kennen die Erfolgskriterien und können sich schrittweise in diese Richtung verbessern.
00:08:26Bei der Einrichtung des Backends hatte ich noch keinen Code geschrieben und den Agenten lediglich aufgefordert, Tests für die Auth-Route zu schreiben sowie Input, Output und Testverhalten zu beschreiben – wobei ich explizit anwies, den Code für die Tests in diesem Stadium noch nicht zu schreiben.
00:08:40Nachdem der Agent die Testfälle geschrieben hatte und ich damit zufrieden war, bat ich ihn, die Tests auszuführen.
00:08:45Diese Tests schlugen zunächst fehl, da noch keine Implementierung vorhanden war.
00:08:49Nach Abschluss der Tests habe ich sie in Git committet, um ein Log zu behalten, falls der Agent versuchen sollte, die Tests zu ändern.
00:08:55Dann bat ich den Agenten, den Code für den Endpunkt zu schreiben, mit der ausdrücklichen Anweisung, die Tests nicht zu verändern.
00:09:01Wir haben dann so lange iteriert, bis alle Tests bestanden wurden, wobei wir ihn immer wieder zur Verifizierung aufforderten.
00:09:07Auf diese Weise haben die Agenten ein klares Ziel, auf das sie hinarbeiten können.
00:09:10Wenn Sie anfangen, mit einem Agenten an einer neuen Codebasis zu arbeiten, müssen Sie ihm dieselben Fragen stellen, die Sie auch einem Teamkollegen stellen würden.
00:09:16Dadurch kann der Agent die Codebasis mittels Grep und semantischer Suche durchforsten, Antworten finden und verstehen, wie der Code funktioniert, während er versucht, Ihre Fragen zu beantworten.
00:09:24Ich stelle Fragen zu Details des Codes und den Routen, damit der Agent die Struktur und Funktionalität des Projekts begreift.
00:09:30Wenn ich ihm dann ein neues Feature zur Implementierung gebe, kennt er die Projektstruktur bereits, was die Umsetzung erleichtert.
00:09:37Git ist wichtig, da es nicht nur als Versionskontrolle dient, sondern auch als Wissensbasis für den Coding-Agenten fungiert.
00:09:43Wir haben die Bedeutung von Git bereits in früheren Videos betont.
00:09:47Klare Git-Commits bieten nicht nur eine Wissensbasis für Ihren Agenten, sondern helfen auch dabei, Features zu verwalten, die letzte stabile Version zu verfolgen und Änderungen rückgängig zu machen, falls der Agent etwas Unerwünschtes geändert hat.
00:09:58Um mir die Arbeit mit Git zu erleichtern, verwende ich eine Reihe von wiederverwendbaren Befehlen, die wir in Anti-Gravity „Workflows“ nennen.
00:10:04Beim Committen bevorzuge ich ein strukturiertes Format. Daher stelle ich sicher, dass der Commit-Workflow diese Struktur erzwingt und dem Agenten sogar Beispiele liefert.
00:10:13Vor dem Commit werden bestimmte Sicherheits- und Code-Review-Checks durchgeführt, um sicherzustellen, dass meine Git-Commits sauber sind und meinen Standards entsprechen.
00:10:20Sie können auch Befehlssätze für die Verwaltung von Pull-Requests, Worktrees, Branches und mehr erstellen, was den gesamten Git-Workflow konsistenter und effizienter macht.
00:10:28Das Aufrufen dieser Workflows ist so einfach wie das Schreiben des Workflow-Namens, woraufhin alle Schritte automatisch ausgeführt werden.
00:10:34Sie können auch andere Befehle wie „fix issues“ oder „review“ nutzen, um Code-Reviews durchzuführen und Workflows für das Aktualisieren von Abhängigkeiten auszuführen, je nach Bedarf der Codebasis.
00:10:43Das mag banal klingen, aber KI-generierter Code muss definitiv überprüft werden und ist nicht immer perfekt.
00:10:48Eine wichtige Praxis ist es, dem Agenten bei der Arbeit zuzusehen.
00:10:51Wenn Sie sehen, dass er sich in die falsche Richtung bewegt, unterbrechen Sie ihn sofort und lenken ihn wieder auf Ihr Ziel.
00:10:56Sobald der Agent fertig ist, sollten Sie ein Review mithilfe des Agenten selbst durchführen.
00:11:00In meinen Projekten nutze ich oft einen benutzerdefinierten Workflow für Code-Reviews, der alle Best Practices mit Git einbezieht.
00:11:06Er hebt Probleme nach Schweregrad hervor, listet alle Prüfungen auf, die am Code durchgeführt werden sollten, und kann nach dem Review auch Linters und Tests ausführen.
00:11:15Dies stellt sicher, dass der Code qualitativ hochwertig und zuverlässig ist.
00:11:18Da fast alle Projekte über eine Quellverwaltung wie GitHub laufen, nutzen wir BugBots für fortgeschrittene KI-Analysen, um bei jedem Pull-Request Probleme zu finden und Verbesserungen vorzuschlagen.
00:11:28Es gibt viele KI-gestützte Tools wie CodeRabbit, Sentry und andere, die bei der Code-Überprüfung helfen können.
00:11:33Sogar GitHub hat integrierte Code-Review-Funktionen für jeden Pull-Request, die das Teammanagement unterstützen.
00:11:38Um Architekturprobleme zu identifizieren, können wir den Agenten bitten, ein Mermaid-Diagramm zu erstellen.
00:11:43Mithilfe dieser Diagramme können wir Schlüsselprobleme visuell analysieren und erkennen.
00:11:47Diese Diagramme sind besonders nützlich, da Visuelles leichter zu verstehen ist und als klare Dokumentation für die Projektarchitektur dient.
00:11:54Das parallele Ausführen von Agenten ist sehr wichtig, da es nicht nur die Leistung der KI-Modelle verbessert, sondern auch viel Zeit spart, verglichen mit dem Warten auf einen einzelnen Agenten.
00:12:05Dieser Ansatz kann die Ergebnisse erheblich verbessern.
00:12:07Ich setze oft mehrere Agenten gleichzeitig ein, die unterschiedliche Aufgaben bearbeiten, und nutze auch verschiedene Modelle, da jedes Modell bei anderen Aufgaben glänzt.
00:12:16Die Agenten arbeiten unabhängig voneinander und melden sich nur, wenn sie Input benötigen, was einen simultanen Betrieb ermöglicht.
00:12:22Da die Agenten von Anti-Gravity denselben Workspace nutzen und nicht isoliert sind, lasse ich sie in separaten Branches arbeiten.
00:12:28Sobald sie ihre Aufgaben abgeschlossen und die definierten Checks bestanden haben, merge ich ihre Features in den Haupt-Branch.
00:12:34Oft stoßen wir auf Bugs, bei denen wir nicht wissen, wie wir sie beheben sollen.
00:12:38In solchen Fällen ist der Debug-Modus die beste Lösung.
00:12:40Statt nur Lösungen zu raten, versucht der Debug-Modus zu verstehen, was schiefgelaufen sein könnte, und generiert Logging-Statements, was Fehler reduziert und den Debugging-Prozess systematischer macht.
00:12:50Obwohl es in Anti-Gravity keinen nativen Debug-Modus gibt, können wir einen über einen Debug-Modus-Skill implementieren.
00:12:56Dieser Skill enthält alle Anweisungen zum Debuggen von unerwartetem Verhalten im Code.
00:13:00Er folgt einem evidenzbasierten Ansatz, stellt Hypothesen auf und liefert einen detaillierten mehrphasigen Plan zur Problemlösung.
00:13:08Er wird durch spezifische Skripte und Referenzen gesteuert, was seine Effektivität erhöht und den Debug-Modus zuverlässiger macht.
00:13:14Wann immer ich auf einen Bug stoße, nutze ich einfach den Debug-Modus und lasse den Agenten anhand der Anleitung in der skill.md herausfinden, was schiefgelaufen ist – das macht das Debuggen sehr reibungslos.
00:13:25Damit sind wir am Ende dieses Videos angelangt.
00:13:27Wenn Sie den Kanal unterstützen und uns helfen möchten, weiterhin solche Videos zu produzieren, können Sie dies über den Super-Thanks-Button unten tun.
00:13:33Wie immer, danke fürs Zuschauen und bis zum nächsten Mal.