00:00:00Avec l'évolution du codage par IA,
00:00:01de plus en plus de choses sont automatisées.
00:00:03Qu'y a-t-il de mal à ce qu'une autre tâche nous échappe ?
00:00:06Les LLM ont des outils,
00:00:07et d'un coup,
00:00:07une grande partie du travail humain a été automatisée.
00:00:10Avec Puppeteer MCP,
00:00:11nous avons vu l'automatisation des tests d'interface utilisateur.
00:00:13Maintenant,
00:00:14Ingest vient de nous offrir une couche de surveillance qui permet à vos agents de codage de devenir des débogueurs en temps réel du code qu'ils génèrent.
00:00:20Ils y parviennent en publiant leur MCP pour le serveur de développement Ingest,
00:00:23qui est essentiellement une version locale de leur plateforme cloud.
00:00:26La plateforme vous permet de tester toutes les fonctions que vous avez intégrées à votre agent,
00:00:31et offre une interface visuelle pour tout,
00:00:33ainsi que les différents événements qui s'exécutent.
00:00:35Grâce à cela,
00:00:36vous pouvez directement demander à vos agents IA,
00:00:38comme Claude Code ou Cursor,
00:00:39d'effectuer tous les tests automatisés.
00:00:41Si Vercel avait quelque chose de similaire,
00:00:43leur déploiement et leur débogage ne nécessiteraient qu'une seule invite.
00:00:46Pour ceux qui ne le savent pas,
00:00:48Ingest est une plateforme d'orchestration de workflows open source qui vous permet de créer des workflows IA fiables et résout de nombreux problèmes qui y sont liés.
00:00:55Je l'utilise pour créer des workflows basés sur des agents dans notre entreprise,
00:00:58et l'expérience développeur est vraiment excellente.
00:01:00Avec le serveur MCP, ça s'est encore amélioré.
00:01:03Ces workflows sont construits avec des fonctions asynchrones,
00:01:06et leur test et débogage posent quelques problèmes.
00:01:09La plupart sont déclenchés par des événements externes.
00:01:11Ils s'exécutent de manière asynchrone en plusieurs étapes.
00:01:13Pour ceux qui ne savent pas ce que signifie asynchrone,
00:01:16ce sont des fonctions qui peuvent se mettre en pause et attendre que quelque chose se termine,
00:01:20puis continuer sans bloquer tout le reste.
00:01:22Ces fonctions font partie de workflows plus importants,
00:01:24ce qui rend le débogage encore plus difficile.
00:01:26Cela vous amène généralement à déclencher manuellement ces événements,
00:01:29ou vous pourriez avoir besoin de basculer constamment entre votre éditeur de code et votre navigateur de temps en temps.
00:01:34Vous pourriez même devoir fouiller dans les journaux pour comprendre ce qui s'est réellement passé avec cette seule fonction,
00:01:39ou pourquoi elle aurait pu échouer ou toute autre chose.
00:01:41Ou vous pourriez même avoir besoin de recréer des événements complexes,
00:01:44ou de les déclencher vous-même pour réellement tester la fonction.
00:01:47Mais maintenant,
00:01:48avec l'intégration MCP,
00:01:49votre agent IA peut gérer tout cela automatiquement.
00:01:52Ils ont également publié cet article sur l'ingénierie de contexte en pratique,
00:01:55où ils ont expliqué comment ils ont réellement construit un agent de recherche IA.
00:01:58J'utiliserai cet agent pour montrer comment fonctionne le MCP.
00:02:01Dans l'agent,
00:02:02ils ont implémenté l'ingénierie de contexte à l'intérieur de celui-ci,
00:02:04plutôt que de l'utiliser uniquement pour le construire,
00:02:06à la fois dans sa phase de récupération de contexte et sa phase d'enrichissement de contexte.
00:02:10Ils expliquent aussi très bien la différence entre le 'context pushing' et le 'context pulling'.
00:02:14C'est aussi un article très intéressant,
00:02:16et je pourrais faire une vidéo à ce sujet.
00:02:18Donc si cela vous intéresse,
00:02:19n'hésitez pas à commenter ci-dessous.
00:02:20L'agent est entièrement open source.
00:02:22J'ai copié le lien,
00:02:23l'ai cloné,
00:02:24installé les dépendances et initialisé Claude Code.
00:02:27Je lui ai fait analyser la base de code et créer le fichier claud.md.
00:02:31L'article précise également pourquoi nous devrions utiliser différents modèles pour leurs différentes forces,
00:02:35et ils ont implémenté des agents avec des LLM distincts pour différents rôles dans l'agent de recherche.
00:02:39Ils utilisent la passerelle IA avec Vercel,
00:02:42qui donne accès à plus de 100 modèles.
00:02:44Je voulais utiliser un seul modèle.
00:02:46En utilisant le claud.md,
00:02:47il a mis à jour la base de code et l'a fait passer à l'API d'OpenAI.
00:02:51Après l'édition,
00:02:52il m'a juste dit quels fichiers il avait modifiés.
00:02:54Après cela,
00:02:55j'ai copié la configuration pour Claude Code,
00:02:57créé un fichier .mcp.json,
00:02:58l'ai collée,
00:02:59démarré l'application Next.js,
00:03:00puis démarré le serveur de développement Ingest que vous avez déjà vu.
00:03:04Après cela,
00:03:05j'ai redémarré Claude Code et vérifié que le MCP était connecté.
00:03:09Dans le MCP,
00:03:09vous avez la gestion des événements,
00:03:11où il peut déclencher des fonctions avec des événements de test et obtenir des ID d'exécution,
00:03:15ainsi que d'autres fonctions qui lui permettent de lister et d'invoquer des fonctions.
00:03:19Vous avez des outils de surveillance qui lui permettent d'obtenir le statut et l'accès à la documentation,
00:03:24donc si quelque chose ne va pas avec les fonctions Ingest,
00:03:27je n'ai plus à chercher manuellement ce qui ne va pas avec mon agent.
00:03:30Ces outils peuvent automatiquement dire à Claude ce qui n'a pas fonctionné,
00:03:33et il peut le réparer pour moi.
00:03:34Il a utilisé l'outil d'envoi d'événement pour interroger la fonction de recherche principale avec la question : qu'est-ce que l'ingénierie de contexte ?
00:03:40Après cela,
00:03:41il a interrogé le statut d'exécution,
00:03:42ce qui signifie qu'il a demandé à plusieurs reprises si l'exécution était terminée ou non.
00:03:47Ensuite,
00:03:47il l'a testé à nouveau et a constaté que tous utilisaient le bon nom de modèle et que le workflow s'exécutait toujours correctement.
00:03:53Selon leurs propres termes,
00:03:54cela représente un changement fondamental dans la manière dont ils construisent et déboguent les fonctions sans serveur.
00:04:00Au lieu que les fonctions soient des boîtes noires que le modèle IA lit de l'extérieur,
00:04:03l'IA peut maintenant travailler dans la bonne exécution et fournir des informations en temps réel,
00:04:08et j'espère que nous verrons cela se produire avec d'autres outils également,
00:04:11où nous donnons plus d'autonomie à l'IA.
00:04:13Et je suis très enthousiaste à ce sujet.
00:04:15Cela nous amène à la fin de cette vidéo.
00:04:16Si vous souhaitez soutenir la chaîne et nous aider à continuer à faire des vidéos comme celle-ci,
00:04:20vous pouvez le faire en utilisant le bouton Super Merci ci-dessous.
00:04:23Comme toujours,
00:04:24merci d'avoir regardé et je vous dis à la prochaine.