Transcript

00:00:00Avec l'évolution du codage par IA,
00:00:01de plus en plus de choses sont automatisées.
00:00:03Qu'y a-t-il de mal à ce qu'une autre tâche nous échappe ?
00:00:06Les LLM ont des outils,
00:00:07et d'un coup,
00:00:07une grande partie du travail humain a été automatisée.
00:00:10Avec Puppeteer MCP,
00:00:11nous avons vu l'automatisation des tests d'interface utilisateur.
00:00:13Maintenant,
00:00:14Ingest vient de nous offrir une couche de surveillance qui permet à vos agents de codage de devenir des débogueurs en temps réel du code qu'ils génèrent.
00:00:20Ils y parviennent en publiant leur MCP pour le serveur de développement Ingest,
00:00:23qui est essentiellement une version locale de leur plateforme cloud.
00:00:26La plateforme vous permet de tester toutes les fonctions que vous avez intégrées à votre agent,
00:00:31et offre une interface visuelle pour tout,
00:00:33ainsi que les différents événements qui s'exécutent.
00:00:35Grâce à cela,
00:00:36vous pouvez directement demander à vos agents IA,
00:00:38comme Claude Code ou Cursor,
00:00:39d'effectuer tous les tests automatisés.
00:00:41Si Vercel avait quelque chose de similaire,
00:00:43leur déploiement et leur débogage ne nécessiteraient qu'une seule invite.
00:00:46Pour ceux qui ne le savent pas,
00:00:48Ingest est une plateforme d'orchestration de workflows open source qui vous permet de créer des workflows IA fiables et résout de nombreux problèmes qui y sont liés.
00:00:55Je l'utilise pour créer des workflows basés sur des agents dans notre entreprise,
00:00:58et l'expérience développeur est vraiment excellente.
00:01:00Avec le serveur MCP, ça s'est encore amélioré.
00:01:03Ces workflows sont construits avec des fonctions asynchrones,
00:01:06et leur test et débogage posent quelques problèmes.
00:01:09La plupart sont déclenchés par des événements externes.
00:01:11Ils s'exécutent de manière asynchrone en plusieurs étapes.
00:01:13Pour ceux qui ne savent pas ce que signifie asynchrone,
00:01:16ce sont des fonctions qui peuvent se mettre en pause et attendre que quelque chose se termine,
00:01:20puis continuer sans bloquer tout le reste.
00:01:22Ces fonctions font partie de workflows plus importants,
00:01:24ce qui rend le débogage encore plus difficile.
00:01:26Cela vous amène généralement à déclencher manuellement ces événements,
00:01:29ou vous pourriez avoir besoin de basculer constamment entre votre éditeur de code et votre navigateur de temps en temps.
00:01:34Vous pourriez même devoir fouiller dans les journaux pour comprendre ce qui s'est réellement passé avec cette seule fonction,
00:01:39ou pourquoi elle aurait pu échouer ou toute autre chose.
00:01:41Ou vous pourriez même avoir besoin de recréer des événements complexes,
00:01:44ou de les déclencher vous-même pour réellement tester la fonction.
00:01:47Mais maintenant,
00:01:48avec l'intégration MCP,
00:01:49votre agent IA peut gérer tout cela automatiquement.
00:01:52Ils ont également publié cet article sur l'ingénierie de contexte en pratique,
00:01:55où ils ont expliqué comment ils ont réellement construit un agent de recherche IA.
00:01:58J'utiliserai cet agent pour montrer comment fonctionne le MCP.
00:02:01Dans l'agent,
00:02:02ils ont implémenté l'ingénierie de contexte à l'intérieur de celui-ci,
00:02:04plutôt que de l'utiliser uniquement pour le construire,
00:02:06à la fois dans sa phase de récupération de contexte et sa phase d'enrichissement de contexte.
00:02:10Ils expliquent aussi très bien la différence entre le 'context pushing' et le 'context pulling'.
00:02:14C'est aussi un article très intéressant,
00:02:16et je pourrais faire une vidéo à ce sujet.
00:02:18Donc si cela vous intéresse,
00:02:19n'hésitez pas à commenter ci-dessous.
00:02:20L'agent est entièrement open source.
00:02:22J'ai copié le lien,
00:02:23l'ai cloné,
00:02:24installé les dépendances et initialisé Claude Code.
00:02:27Je lui ai fait analyser la base de code et créer le fichier claud.md.
00:02:31L'article précise également pourquoi nous devrions utiliser différents modèles pour leurs différentes forces,
00:02:35et ils ont implémenté des agents avec des LLM distincts pour différents rôles dans l'agent de recherche.
00:02:39Ils utilisent la passerelle IA avec Vercel,
00:02:42qui donne accès à plus de 100 modèles.
00:02:44Je voulais utiliser un seul modèle.
00:02:46En utilisant le claud.md,
00:02:47il a mis à jour la base de code et l'a fait passer à l'API d'OpenAI.
00:02:51Après l'édition,
00:02:52il m'a juste dit quels fichiers il avait modifiés.
00:02:54Après cela,
00:02:55j'ai copié la configuration pour Claude Code,
00:02:57créé un fichier .mcp.json,
00:02:58l'ai collée,
00:02:59démarré l'application Next.js,
00:03:00puis démarré le serveur de développement Ingest que vous avez déjà vu.
00:03:04Après cela,
00:03:05j'ai redémarré Claude Code et vérifié que le MCP était connecté.
00:03:09Dans le MCP,
00:03:09vous avez la gestion des événements,
00:03:11où il peut déclencher des fonctions avec des événements de test et obtenir des ID d'exécution,
00:03:15ainsi que d'autres fonctions qui lui permettent de lister et d'invoquer des fonctions.
00:03:19Vous avez des outils de surveillance qui lui permettent d'obtenir le statut et l'accès à la documentation,
00:03:24donc si quelque chose ne va pas avec les fonctions Ingest,
00:03:27je n'ai plus à chercher manuellement ce qui ne va pas avec mon agent.
00:03:30Ces outils peuvent automatiquement dire à Claude ce qui n'a pas fonctionné,
00:03:33et il peut le réparer pour moi.
00:03:34Il a utilisé l'outil d'envoi d'événement pour interroger la fonction de recherche principale avec la question : qu'est-ce que l'ingénierie de contexte ?
00:03:40Après cela,
00:03:41il a interrogé le statut d'exécution,
00:03:42ce qui signifie qu'il a demandé à plusieurs reprises si l'exécution était terminée ou non.
00:03:47Ensuite,
00:03:47il l'a testé à nouveau et a constaté que tous utilisaient le bon nom de modèle et que le workflow s'exécutait toujours correctement.
00:03:53Selon leurs propres termes,
00:03:54cela représente un changement fondamental dans la manière dont ils construisent et déboguent les fonctions sans serveur.
00:04:00Au lieu que les fonctions soient des boîtes noires que le modèle IA lit de l'extérieur,
00:04:03l'IA peut maintenant travailler dans la bonne exécution et fournir des informations en temps réel,
00:04:08et j'espère que nous verrons cela se produire avec d'autres outils également,
00:04:11où nous donnons plus d'autonomie à l'IA.
00:04:13Et je suis très enthousiaste à ce sujet.
00:04:15Cela nous amène à la fin de cette vidéo.
00:04:16Si vous souhaitez soutenir la chaîne et nous aider à continuer à faire des vidéos comme celle-ci,
00:04:20vous pouvez le faire en utilisant le bouton Super Merci ci-dessous.
00:04:23Comme toujours,
00:04:24merci d'avoir regardé et je vous dis à la prochaine.

Key Takeaway

Ingest's new MCP (Monitoring and Control Plane) integration empowers AI coding agents to become real-time debuggers for complex asynchronous workflows, fundamentally transforming the development and debugging process for serverless functions.

Highlights

Ingest introduces a monitoring layer (MCP) that enables AI coding agents to debug code in real-time as they generate it.

The Ingest Dev Server provides a local platform with a visual interface for testing all functions integrated into an AI agent.

AI agents like Claude Code or Cursor can now automate the entire testing and debugging process for asynchronous workflows.

Ingest is an open-source workflow orchestration platform designed to build reliable AI workflows and solve common related problems.

MCP integration addresses the challenges of debugging complex asynchronous, event-driven functions by allowing AI to handle manual triggering, monitoring, and issue resolution.

The platform offers event management tools for triggering functions and monitoring tools for obtaining status and documentation, enabling AI to automatically detect and fix issues.

Ingest MCP represents a fundamental shift, allowing AI to work within function execution to provide real-time insights and achieve greater autonomy in the development process.

Timeline

Introduction to AI Coding Automation and Ingest MCP

Discusses the increasing automation in AI coding, the role of LLMs with tools, and introduces Ingest's new monitoring layer (MCP) that enables AI agents to debug code in real-time.

Ingest Dev Server and Automated Testing

Explains the Ingest Dev Server as a local platform for testing agent functions, its visual interface, and how AI agents like Claude Code can perform automated tests, streamlining deployment and debugging.

Ingest as an Open-Source Workflow Platform

Describes Ingest as an open-source workflow orchestration platform for building reliable AI workflows and highlights the speaker's positive developer experience.

Challenges of Debugging Asynchronous Workflows

Details the difficulties in testing and debugging asynchronous, event-driven functions that run in multiple steps and are part of larger workflows, often requiring manual intervention and log analysis.

MCP Solution for AI-Powered Debugging

Explains how Ingest's MCP integration allows AI agents to automatically handle the complex debugging challenges of asynchronous workflows.

Context Engineering and AI Search Agent

Mentions Ingest's article on 'context engineering in practice,' detailing how they built an open-source AI search agent and the concepts of context pushing vs. pulling.

Setting Up the AI Agent for MCP Integration

Describes the initial setup process, including cloning the open-source agent, installing dependencies, initializing Claude Code, and modifying the codebase to use the OpenAI API.

Configuring and Starting Ingest MCP

Details the steps to configure and start the Ingest MCP, including creating a '.mcp.json' file, starting the Next.js application, and launching the Ingest development server.

MCP Event Management and Monitoring Tools

Explains the functionalities of MCP, such as event management for triggering functions and obtaining execution IDs, and monitoring tools that allow AI to automatically detect and fix issues.

Demonstration of AI Agent Debugging with MCP

Illustrates the AI agent's use of MCP to query a search function, monitor its execution status, and re-test to ensure correct workflow operation.

Conclusion: The Future of AI Autonomy in Debugging

Concludes that Ingest MCP fundamentally changes serverless function debugging by enabling AI to work within execution for real-time insights, leading to greater AI autonomy.

Outro

Final remarks and call to action for supporting the channel.

Community Posts

No posts yet. Be the first to write about this video!

Write about this video