00:00:00Angesichts der Entwicklung der KI-Programmierung werden immer mehr Dinge automatisiert.
00:00:03Was ist falsch daran,
00:00:04wenn uns noch eine Aufgabe abgenommen wird?
00:00:06LLMs erhielten Tools,
00:00:07und im Nu wurde ein Großteil der menschlichen Arbeit automatisiert.
00:00:10Mit Puppeteer MCP sahen wir automatisiertes UI-Testing.
00:00:13Ingest hat uns nun eine Überwachungsebene bereitgestellt,
00:00:16die es deinen Coding-Agenten ermöglicht,
00:00:18den von ihnen generierten Code live zu debuggen.
00:00:20Sie tun dies,
00:00:20indem sie ihr MCP für den Ingest Dev Server veröffentlichen,
00:00:23der im Grunde eine lokale Version ihrer Cloud-Plattform darstellt.
00:00:26Die Plattform ermöglicht es,
00:00:28alle in deinem Agenten erstellten Funktionen zu testen und bietet eine visuelle Oberfläche für alles,
00:00:32inklusive der verschiedenen ablaufenden Ereignisse.
00:00:35Damit kannst du deine KI-Agenten wie Claude Code oder Cursor direkt bitten,
00:00:38die gesamte automatisierte Testarbeit zu übernehmen.
00:00:41Hätte Versil so etwas,
00:00:42würden Bereitstellung und Debugging nur einen einzigen Prompt erfordern.
00:00:46Für diejenigen,
00:00:47die es nicht wissen: Ingest ist eine Open-Source-Plattform zur Workflow-Orchestrierung,
00:00:51mit der man zuverlässige KI-Workflows erstellen kann und die sich um viele damit verbundene Probleme kümmert.
00:00:55Ich nutze es,
00:00:56um agentenbasierte Workflows in unserem Unternehmen zu erstellen,
00:00:58und die Entwicklererfahrung ist wirklich gut.
00:01:00Mit dem MCP-Server ist es noch besser geworden.
00:01:03Diese Workflows werden mit asynchronen Funktionen erstellt,
00:01:06und ihr Testen und Debuggen birgt einige Probleme.
00:01:09Die meisten von ihnen werden durch externe Ereignisse ausgelöst.
00:01:11Sie laufen asynchron mit mehreren Schritten ab.
00:01:13Für diejenigen,
00:01:14die nicht wissen,
00:01:15was asynchron bedeutet: Das sind Funktionen,
00:01:16die pausieren und auf den Abschluss einer Aufgabe warten können,
00:01:19um dann fortzufahren,
00:01:20ohne andere Prozesse zu blockieren.
00:01:22Diese Funktionen sind Teil größerer Workflows,
00:01:24was das Debugging noch schwieriger macht.
00:01:26Dies führt normalerweise dazu,
00:01:27dass man diese Ereignisse manuell auslösen muss,
00:01:30oder man muss möglicherweise ständig zwischen Code-Editor und Browser hin- und herwechseln.
00:01:34Man muss vielleicht sogar die Logs durchforsten,
00:01:36um zu verstehen,
00:01:37was mit dieser einzelnen Funktion tatsächlich passiert ist,
00:01:39warum sie möglicherweise fehlgeschlagen ist oder Ähnliches.
00:01:41Oder man muss möglicherweise sogar komplexe Ereignisse neu erstellen oder sie selbst auslösen,
00:01:46um die Funktion wirklich zu testen.
00:01:47Aber jetzt,
00:01:48mit der MCP-Integration,
00:01:49kann dein KI-Agent all dies automatisch erledigen.
00:01:52Sie hatten auch ein Paper über Context Engineering in der Praxis,
00:01:55in dem sie erklärten,
00:01:56wie sie einen KI-Forschungsagenten entwickelt haben.
00:01:58Ich werde diesen Agenten verwenden,
00:02:00um zu zeigen,
00:02:00wie das MCP funktioniert.
00:02:01Im Agenten haben sie Context Engineering direkt implementiert,
00:02:04anstatt es nur zum Bauen zu nutzen,
00:02:06sowohl in der Kontextabruf- als auch in der Kontextanreicherungsphase.
00:02:10Sie erklären auch den Unterschied zwischen Context Pushing und Context Pulling wirklich gut.
00:02:14Es ist auch ein wirklich interessanter Artikel,
00:02:16und ich werde vielleicht ein Video dazu machen.
00:02:18Wenn dich das interessiert, hinterlasse einen Kommentar.
00:02:20Der Agent ist komplett Open Source.
00:02:22Ich habe den Link kopiert,
00:02:23geklont,
00:02:24die Abhängigkeiten installiert und Claude Code initialisiert.
00:02:27Ich ließ es die Codebasis analysieren und die claud.md erstellen.
00:02:31Der Artikel erläutert auch,
00:02:32warum man verschiedene Modelle aufgrund ihrer jeweiligen Stärken nutzen sollte,
00:02:35und sie haben Agenten mit separaten LLMs für unterschiedliche Rollen im Forschungsagenten implementiert.
00:02:39Sie verwenden das AI Gateway mit Vercel,
00:02:42das dir Zugang zu über 100 Modellen bietet.
00:02:44Ich wollte ein einziges Modell verwenden.
00:02:46Mithilfe der claud.md aktualisierte es die Codebasis und stellte sie auf die Verwendung der OpenAI-API um.
00:02:51Nach der Bearbeitung teilte es mir einfach mit,
00:02:53welche Dateien es geändert hatte.
00:02:54Danach kopierte ich die Konfiguration für Claude Code,
00:02:57erstellte eine .mcp.json-Datei,
00:02:58fügte sie ein,
00:02:59startete die Next.js-App und anschließend den Ingest Dev Server,
00:03:02den Sie bereits gesehen haben.
00:03:04Danach startete ich Claude Code neu und überprüfte,
00:03:07ob das MCP verbunden war.
00:03:09Innerhalb des MCP gibt es ein Ereignismanagement,
00:03:11das es ermöglicht,
00:03:12Funktionen mit Testereignissen auszulösen und Run-IDs abzurufen,
00:03:15sowie weitere Funktionen zum Auflisten und Aufrufen von Funktionen.
00:03:19Es gibt Überwachungstools,
00:03:20die den Status und den Dokumentationszugriff ermöglichen.
00:03:23Wenn also etwas mit den Ingest-Funktionen schiefläuft,
00:03:26muss ich nicht mehr manuell nachforschen,
00:03:28was mit meinem Agenten nicht stimmt..
00:03:30Diese Tools können Claude automatisch mitteilen,
00:03:32was schiefgelaufen ist,
00:03:33und es kann es für mich beheben.
00:03:34Es nutzte das Send-Event-Tool,
00:03:36um die Hauptforschungsfunktion mit der Frage zu befragen: „Was ist Context Engineering?“
00:03:40Danach fragte es den Run-Status ab,
00:03:42was im Grunde bedeutet,
00:03:43dass es wiederholt prüfte,
00:03:45ob der Durchlauf abgeschlossen war.
00:03:47Dann testete es es erneut und stellte fest,
00:03:49dass alle den korrekten Modellnamen verwendeten und der Workflow weiterhin reibungslos ausgeführt wurde.
00:03:53Mit ihren eigenen Worten stellt dies eine grundlegende Veränderung in der Art und Weise dar,
00:03:57wie sie serverlose Funktionen erstellen und debuggen.
00:04:00Anstatt dass Funktionen Black Boxes sind,
00:04:02die das KI-Modell nur von außen liest,
00:04:04kann die KI jetzt direkt in der Ausführung arbeiten und Echtzeit-Einblicke liefern.
00:04:08Hoffentlich werden wir dies auch bei anderen Tools sehen,
00:04:11wo wir der KI mehr Autonomie gewähren..
00:04:13Und ich bin ziemlich gespannt darauf.
00:04:15Das bringt uns zum Ende dieses Videos.
00:04:16Wenn du den Kanal unterstützen und uns helfen möchtest,
00:04:19weiterhin solche Videos zu erstellen,
00:04:20kannst du dies über den Super Thanks-Button unten tun.
00:04:23Wie immer,
00:04:23vielen Dank fürs Zuschauen und bis zum nächsten Mal.