Transcript

00:00:00Angesichts der Entwicklung der KI-Programmierung werden immer mehr Dinge automatisiert.
00:00:03Was ist falsch daran,
00:00:04wenn uns noch eine Aufgabe abgenommen wird?
00:00:06LLMs erhielten Tools,
00:00:07und im Nu wurde ein Großteil der menschlichen Arbeit automatisiert.
00:00:10Mit Puppeteer MCP sahen wir automatisiertes UI-Testing.
00:00:13Ingest hat uns nun eine Überwachungsebene bereitgestellt,
00:00:16die es deinen Coding-Agenten ermöglicht,
00:00:18den von ihnen generierten Code live zu debuggen.
00:00:20Sie tun dies,
00:00:20indem sie ihr MCP für den Ingest Dev Server veröffentlichen,
00:00:23der im Grunde eine lokale Version ihrer Cloud-Plattform darstellt.
00:00:26Die Plattform ermöglicht es,
00:00:28alle in deinem Agenten erstellten Funktionen zu testen und bietet eine visuelle Oberfläche für alles,
00:00:32inklusive der verschiedenen ablaufenden Ereignisse.
00:00:35Damit kannst du deine KI-Agenten wie Claude Code oder Cursor direkt bitten,
00:00:38die gesamte automatisierte Testarbeit zu übernehmen.
00:00:41Hätte Versil so etwas,
00:00:42würden Bereitstellung und Debugging nur einen einzigen Prompt erfordern.
00:00:46Für diejenigen,
00:00:47die es nicht wissen: Ingest ist eine Open-Source-Plattform zur Workflow-Orchestrierung,
00:00:51mit der man zuverlässige KI-Workflows erstellen kann und die sich um viele damit verbundene Probleme kümmert.
00:00:55Ich nutze es,
00:00:56um agentenbasierte Workflows in unserem Unternehmen zu erstellen,
00:00:58und die Entwicklererfahrung ist wirklich gut.
00:01:00Mit dem MCP-Server ist es noch besser geworden.
00:01:03Diese Workflows werden mit asynchronen Funktionen erstellt,
00:01:06und ihr Testen und Debuggen birgt einige Probleme.
00:01:09Die meisten von ihnen werden durch externe Ereignisse ausgelöst.
00:01:11Sie laufen asynchron mit mehreren Schritten ab.
00:01:13Für diejenigen,
00:01:14die nicht wissen,
00:01:15was asynchron bedeutet: Das sind Funktionen,
00:01:16die pausieren und auf den Abschluss einer Aufgabe warten können,
00:01:19um dann fortzufahren,
00:01:20ohne andere Prozesse zu blockieren.
00:01:22Diese Funktionen sind Teil größerer Workflows,
00:01:24was das Debugging noch schwieriger macht.
00:01:26Dies führt normalerweise dazu,
00:01:27dass man diese Ereignisse manuell auslösen muss,
00:01:30oder man muss möglicherweise ständig zwischen Code-Editor und Browser hin- und herwechseln.
00:01:34Man muss vielleicht sogar die Logs durchforsten,
00:01:36um zu verstehen,
00:01:37was mit dieser einzelnen Funktion tatsächlich passiert ist,
00:01:39warum sie möglicherweise fehlgeschlagen ist oder Ähnliches.
00:01:41Oder man muss möglicherweise sogar komplexe Ereignisse neu erstellen oder sie selbst auslösen,
00:01:46um die Funktion wirklich zu testen.
00:01:47Aber jetzt,
00:01:48mit der MCP-Integration,
00:01:49kann dein KI-Agent all dies automatisch erledigen.
00:01:52Sie hatten auch ein Paper über Context Engineering in der Praxis,
00:01:55in dem sie erklärten,
00:01:56wie sie einen KI-Forschungsagenten entwickelt haben.
00:01:58Ich werde diesen Agenten verwenden,
00:02:00um zu zeigen,
00:02:00wie das MCP funktioniert.
00:02:01Im Agenten haben sie Context Engineering direkt implementiert,
00:02:04anstatt es nur zum Bauen zu nutzen,
00:02:06sowohl in der Kontextabruf- als auch in der Kontextanreicherungsphase.
00:02:10Sie erklären auch den Unterschied zwischen Context Pushing und Context Pulling wirklich gut.
00:02:14Es ist auch ein wirklich interessanter Artikel,
00:02:16und ich werde vielleicht ein Video dazu machen.
00:02:18Wenn dich das interessiert, hinterlasse einen Kommentar.
00:02:20Der Agent ist komplett Open Source.
00:02:22Ich habe den Link kopiert,
00:02:23geklont,
00:02:24die Abhängigkeiten installiert und Claude Code initialisiert.
00:02:27Ich ließ es die Codebasis analysieren und die claud.md erstellen.
00:02:31Der Artikel erläutert auch,
00:02:32warum man verschiedene Modelle aufgrund ihrer jeweiligen Stärken nutzen sollte,
00:02:35und sie haben Agenten mit separaten LLMs für unterschiedliche Rollen im Forschungsagenten implementiert.
00:02:39Sie verwenden das AI Gateway mit Vercel,
00:02:42das dir Zugang zu über 100 Modellen bietet.
00:02:44Ich wollte ein einziges Modell verwenden.
00:02:46Mithilfe der claud.md aktualisierte es die Codebasis und stellte sie auf die Verwendung der OpenAI-API um.
00:02:51Nach der Bearbeitung teilte es mir einfach mit,
00:02:53welche Dateien es geändert hatte.
00:02:54Danach kopierte ich die Konfiguration für Claude Code,
00:02:57erstellte eine .mcp.json-Datei,
00:02:58fügte sie ein,
00:02:59startete die Next.js-App und anschließend den Ingest Dev Server,
00:03:02den Sie bereits gesehen haben.
00:03:04Danach startete ich Claude Code neu und überprüfte,
00:03:07ob das MCP verbunden war.
00:03:09Innerhalb des MCP gibt es ein Ereignismanagement,
00:03:11das es ermöglicht,
00:03:12Funktionen mit Testereignissen auszulösen und Run-IDs abzurufen,
00:03:15sowie weitere Funktionen zum Auflisten und Aufrufen von Funktionen.
00:03:19Es gibt Überwachungstools,
00:03:20die den Status und den Dokumentationszugriff ermöglichen.
00:03:23Wenn also etwas mit den Ingest-Funktionen schiefläuft,
00:03:26muss ich nicht mehr manuell nachforschen,
00:03:28was mit meinem Agenten nicht stimmt..
00:03:30Diese Tools können Claude automatisch mitteilen,
00:03:32was schiefgelaufen ist,
00:03:33und es kann es für mich beheben.
00:03:34Es nutzte das Send-Event-Tool,
00:03:36um die Hauptforschungsfunktion mit der Frage zu befragen: „Was ist Context Engineering?“
00:03:40Danach fragte es den Run-Status ab,
00:03:42was im Grunde bedeutet,
00:03:43dass es wiederholt prüfte,
00:03:45ob der Durchlauf abgeschlossen war.
00:03:47Dann testete es es erneut und stellte fest,
00:03:49dass alle den korrekten Modellnamen verwendeten und der Workflow weiterhin reibungslos ausgeführt wurde.
00:03:53Mit ihren eigenen Worten stellt dies eine grundlegende Veränderung in der Art und Weise dar,
00:03:57wie sie serverlose Funktionen erstellen und debuggen.
00:04:00Anstatt dass Funktionen Black Boxes sind,
00:04:02die das KI-Modell nur von außen liest,
00:04:04kann die KI jetzt direkt in der Ausführung arbeiten und Echtzeit-Einblicke liefern.
00:04:08Hoffentlich werden wir dies auch bei anderen Tools sehen,
00:04:11wo wir der KI mehr Autonomie gewähren..
00:04:13Und ich bin ziemlich gespannt darauf.
00:04:15Das bringt uns zum Ende dieses Videos.
00:04:16Wenn du den Kanal unterstützen und uns helfen möchtest,
00:04:19weiterhin solche Videos zu erstellen,
00:04:20kannst du dies über den Super Thanks-Button unten tun.
00:04:23Wie immer,
00:04:23vielen Dank fürs Zuschauen und bis zum nächsten Mal.

Key Takeaway

Ingest's new Monitoring and Control Plane (MCP) empowers AI coding agents to automatically debug and test their generated code live, providing real-time insights and revolutionizing serverless function development.

Highlights

Ingest's Monitoring and Control Plane (MCP) provides a monitoring layer for AI coding agents to debug generated code live.

The Ingest Dev Server, a local version of their cloud platform, enables testing of agent-created functions with a visual interface.

This integration allows AI agents like Claude Code or Cursor to automate the entire testing and debugging process for complex workflows.

Ingest is an open-source workflow orchestration platform designed to build reliable AI workflows and address associated challenges.

The MCP integration solves common problems in testing and debugging asynchronous, event-driven functions by automating manual steps.

The demonstration uses an open-source AI research agent to showcase how the MCP allows AI to trigger functions, check statuses, and fix issues automatically.

Ingest MCP fundamentally changes serverless function debugging by enabling AI models to work directly in execution and provide real-time insights.

Timeline

Introduction to AI Coding Automation and Ingest MCP

The video introduces the growing automation in AI programming and presents Ingest's Monitoring and Control Plane (MCP) as a solution that allows AI coding agents to debug their generated code live, facilitating automated UI testing.

Understanding Ingest and Asynchronous Workflow Challenges

This section defines Ingest as an open-source platform for reliable AI workflow orchestration and elaborates on the difficulties of testing and debugging asynchronous, event-driven functions within complex workflows, which typically require manual effort.

MCP's Role in Automation and Context Engineering

The speaker explains how Ingest's MCP integration automates the previously manual debugging process for AI agents and briefly references a paper on Context Engineering used in an open-source AI research agent.

Setting Up the AI Research Agent with Ingest

This segment details the practical steps taken to set up the demonstration, including cloning the open-source AI research agent, configuring it to use the OpenAI API, and initializing the Ingest Dev Server with the MCP.

Automated Debugging with Ingest MCP Features

The video showcases the MCP's event management and monitoring tools, demonstrating how an AI agent like Claude Code utilizes them to automatically trigger functions, check run statuses, and debug issues in real-time.

Transformative Impact and Future of AI Autonomy

The conclusion highlights that Ingest MCP fundamentally changes serverless function debugging by enabling AI models to gain real-time insights and work directly within code execution, paving the way for greater AI autonomy in development.

Community Posts

No posts yet. Be the first to write about this video!

Write about this video