Ceci vient de résoudre le plus grand problème du codage par l'IA

AAI LABS
Computing/SoftwareSmall Business/StartupsInternet Technology

Transcript

00:00:00Ces deux derniers mois, la communauté IA a réalisé que les MCP cachent un énorme problème.
00:00:04Et face à cela, la communauté a commencé à proposer des solutions.
00:00:08Mais toutes ces solutions présentent des lacunes majeures.
00:00:10Il y a quelque temps, nous avons fait une vidéo sur la solution de Docker,
00:00:12que nous considérions comme la meilleure réponse au problème MCP jusqu'ici.
00:00:16Docker a lancé le "code mode", permettant aux agents d'écrire du JavaScript appelant directement les outils MCP.
00:00:21Cela a résolu le problème de la consommation excessive de contexte par les outils MCP,
00:00:24causée par l'exposition de l'outil et de sa description dans la fenêtre de contexte.
00:00:27Si vous utilisez beaucoup de MCP, votre fenêtre de contexte se retrouve encombrée par
00:00:32des outils inutiles, dont la plupart ne servent quasiment jamais.
00:00:36Mais avec la passerelle MCP de Docker, vous étiez limité aux MCP configurés par Docker,
00:00:41avec des restrictions sur les MCP locaux et distants.
00:00:43De plus, il était impossible de sauvegarder ces outils personnalisés en tant que fonctions.
00:00:47Tout a changé quand Cloudflare a identifié le problème et proposé une solution :
00:00:51faire exister ces outils sous forme de code exécutable plutôt que dans la fenêtre de contexte.
00:00:56Anthropic, à l'origine de ce protocole, a reconnu cette lacune
00:01:00en publiant un article soulignant exactement ce point précis.
00:01:04Dès lors, les gens ont pris le problème au sérieux et exploré des solutions.
00:01:09Cependant, convertir chaque outil en fichier TypeScript présente aussi des limites.
00:01:13Avec de nombreux MCP connectés, il faut convertir chacun individuellement en code
00:01:18et passer beaucoup de temps à vérifier qu'aucun n'échoue durant le processus.
00:01:22Puisque le problème est désormais reconnu,
00:01:24de meilleures solutions continuent de voir le jour.
00:01:26C'est ainsi que nous avons découvert ce nouvel outil appelé MCP to CLI.
00:01:30MCP to CLI règle l'encombrement du contexte en transformant tous
00:01:36les serveurs MCP en outils CLI exécutables via des commandes Bash.
00:01:40Dans notre équipe, nous utilisons surtout Cloud Code, qui propose un flag CLI
00:01:45tentant de résoudre une partie du problème en n'exposant pas
00:01:50tous les outils d'emblée. Cela permet à Cloud Code de charger dynamiquement
00:01:55chaque outil au besoin. Mais il reste un autre souci avec Cloud Code.
00:02:00Comme vous le savez, les MCP renvoient leurs résultats directement dans la fenêtre de contexte.
00:02:05Si l'outil MCP renvoie un gros volume de données, cela reste dans le contexte,
00:02:10entraînant un encombrement inutile. Vous avez peut-être entendu parler d'autres outils
00:02:15open source comme CLI Hub, mais ils sont inefficaces car ils convertissent au build
00:02:20et non au runtime. Mais que signifie réellement la conversion au runtime ?
00:02:25Cela signifie que l'outil devient une commande Bash au moment précis de l'appel.
00:02:29Ça semble correct, mais qu'arrive-t-il si le MCP d'origine est mis à jour ?
00:02:34Comme cet outil génère ses outils MCP au runtime, tout changement est répercuté.
00:02:39C'était impossible avec une génération au build.
00:02:43Il aurait fallu récupérer et mettre à jour l'outil manuellement à chaque fois.
00:02:48On pourrait croire que convertir l'outil à chaque appel ralentit tout. C'est là
00:02:53qu'intervient le mécanisme de cache intégré.
00:02:58Il sauvegarde les outils MCP dans un cache avec une durée de vie d'une heure par défaut.
00:03:03Les outils fréquents y restent une heure, permettant à l'agent une récupération rapide
00:03:08sans sacrifier la flexibilité du runtime. Cet outil repose
00:03:13directement sur le SDK Python de MCP, le même qu'utilisent les serveurs MCP.
00:03:19Il exécute les appels comme des commandes Bash et n'injecte la réponse
00:03:24que si on lui demande. Il gère aussi les API OpenAPI et REST via
00:03:30la même interface CLI ; toute API sans serveur MCP peut donc être utilisée
00:03:35exactement de la même façon. Sans cet outil, vous seriez limité.
00:03:39Les autres solutions n'offrent pas la flexibilité de centraliser tous les types de MCP.
00:03:44Pour prouver l'efficacité en jetons, ils ont testé l'outil avec Tiktoken,
00:03:49la bibliothèque Python de comptage de tokens. Résultat : c'est bien moins cher
00:03:54et bien plus rapide. Ne nous croyez pas sur parole, les chiffres le prouvent.
00:03:59Vous pouvez l'installer via pip ou l'exécuter directement.
00:04:03Nous avons choisi de l'exécuter sans installation pour garder un environnement propre.
00:04:07Ils fournissent aussi une "compétence" (skill) pour aider les agents à mieux l'utiliser.
00:04:13Elle décrit le workflow et donne des exemples de commandes Bash pour l'authentification et le cache,
00:04:18données que votre agent ne possède pas. Mais avant d'aller plus loin,
00:04:22un mot de notre sponsor Orchids. La plupart des constructeurs IA gèrent bien les maquettes,
00:04:27mais échouent sur les logiques complexes. C'est là qu'intervient Orchids.
00:04:32C'est le premier agent IA capable de déployer n'importe quelle app sur n'importe quel stack.
00:04:36Utilisez vos propres abonnements ChatGPT, Claude ou Gemini au prix coûtant,
00:04:41et même GitHub Copilot. Il gère tout, pas seulement le Web.
00:04:47Déployez des apps mobiles, des extensions Chrome ou des bots Slack complexes.
00:04:52Regardez : un setup OpenClaw gérant du matériel complexe,
00:04:57un terminal Bloomberg traitant des flux de données en temps réel,
00:05:02et des apps mobiles comme cet identifiant de bâtiment utilisant la caméra.
00:05:07Cliquez sur le lien en commentaire et utilisez le code March 15 pour 15% de réduction.
00:05:12Comme vous, nous voulons réussir. Une façon d'y arriver est de repérer un créneau.
00:05:17Comme cette idée : Grinder, mais pour les chevaux. Blague à part,
00:05:22créer de gros produits nécessite beaucoup d'outils MCP, car ils ont beaucoup de dépendances
00:05:27qui saturent vite le contexte. Nous avons connecté l'agent au MCP Supabase via MCP to CLI,
00:05:34car c'était notre infrastructure backend. Plus besoin de rien
00:05:38configurer manuellement grâce à la "skill" installée plus tôt.
00:05:43Elle s'occupe de tout pour vous. Cependant, avant de vous lancer,
00:05:47pensez à récupérer les jetons d'accès de vos MCP.
00:05:52Sinon vous aurez des erreurs, comme nous, avant de donner le jeton à Claude.
00:05:57Une fois configuré, les outils sont prêts. On pourrait s'inquiéter
00:06:01du fait qu'une commande Bash puisse exposer des données sensibles (clés API)
00:06:06lors du listage des processus. Mais cet outil ajoute une couche de protection.
00:06:11Il ne met pas les données sensibles dans les arguments de la ligne de commande.
00:06:15Il passe par des variables d'environnement, des fichiers de jetons,
00:06:21ou un gestionnaire de secrets. C'est donc sécurisé. Comme pour Supabase,
00:06:26nous avons connecté le MCP GitHub, Puppeteer pour les tests navigateur,
00:06:32et Context 7 pour donner à l'agent une documentation à jour.
00:06:37Une fois tout connecté, nous avons demandé à Claude de vérifier.
00:06:42Il a confirmé la connexion de 4 MCP, soit 78 outils au total ici. Au passage,
00:06:47si vous aimez notre contenu, cliquez sur le bouton "hype", ça nous aide énormément.
00:06:52Une fois connectés, nous avons commencé l'implémentation incrémentale de l'app.
00:06:57D'abord, la connexion du code côté client au backend Supabase.
00:07:02Quand Claude a lancé MCP to CLI pour créer le projet, le jeton d'accès
00:07:07n'apparaissait pas dans l'appel. Il référençait notre fichier .env.local
00:07:12pour le récupérer. Il a tout configuré et ajouté la logique de connexion.
00:07:17Mais nous avons remarqué qu'il utilisait un fichier middleware obsolète
00:07:22pour la gestion des sessions. La nouvelle version de Next.js utilise un proxy,
00:07:27ce qui aurait causé une erreur au lancement. Cela prouve bien
00:07:31que connecter des outils ne suffit pas ; il faut que l'agent sache les utiliser.
00:07:36Nous avons donc créé un fichier Claude.md lui demandant d'utiliser le MCP Context 7
00:07:42avant d'écrire du code. Ainsi, il consulte la doc avant d'implémenter quoi que ce soit.
00:07:47Après la création des tables et de l'auth sur Supabase, nous avons signalé
00:07:52l'avertissement sur le middleware à Claude. Il a alors utilisé
00:07:57Context 7 pour récupérer la bonne documentation et a résolu le problème.
00:08:03En explorant l'outil, nous avons trouvé encore mieux qu'un fichier Claude.md.
00:08:07Les "skills" sont préférables car leurs descriptions sont chargées directement
00:08:11dans le contexte de l'agent. Il sait alors quels outils sont disponibles
00:08:16plutôt que d'espérer qu'il lise nos instructions dans un fichier MD.
00:08:21Nous lui avons demandé de créer une skill pour chaque MCP connecté.
00:08:26Chaque skill détaillait les outils disponibles et leur mode d'emploi.
00:08:32Problème suivant : notre application était loin d'être fonctionnelle.
00:08:36Le retour des utilisateurs (les chevaux !) était clair : ils voulaient un chat.
00:08:41Nous avons donc demandé à Claude de rendre le chat opérationnel sur l'interface.
00:08:46Lors du test, les messages ne chargeaient pas. Nous avons utilisé
00:08:51le MCP Puppeteer pour tester le flux de messages. Il est crucial que l'agent
00:08:56puisse interagir avec sa propre UI pour détecter ce qu'une relecture de code rate.
00:09:01Il a créé deux utilisateurs, mais n'a pas pu maintenir les sessions entre les appels,
00:09:06chaque appel lançant un nouveau navigateur. Vu le temps perdu
00:09:10dans un navigateur sans interface, nous avons réalisé une chose :
00:09:15il valait mieux laisser le MCP gérer cela. C'était bien plus rapide.
00:09:21Nous préférons l'extension navigateur de Claude, plus performante
00:09:25et capable de conserver les sessions pour des tests de bout en bout.
00:09:30Les MCP tournent en processus persistants, maintenant l'état durant toute la session.
00:09:35Cet outil permet aussi de contrôler le format de sortie, comme JSON ou brut.
00:09:40Il supporte aussi TOON, un format de code optimisé pour les LLM.
00:09:46Des MCP comme Context 7 renvoient souvent des tonnes de données.
00:09:51Pour éviter cela, nous avons spécifié dans Claude.md d'utiliser
00:09:57le format TOON. C'est un format compact combinant indentation
00:10:02et listes de type CSV, bien plus léger que JSON ou YAML. On économise ainsi
00:10:07beaucoup de jetons. Mais la plus grande avancée vient d'une fonction
00:10:12impossible avec la gestion native des MCP. Vous vous souvenez peut-être
00:10:16que Cursor a lancé un workflow d'édition de contexte. Ils traitaient
00:10:22les résultats MCP comme des fichiers et utilisaient des scripts Bash
00:10:27comme grep pour extraire les données. Nous l'avions montré en vidéo.
00:10:32C'est maintenant possible partout grâce à cette CLI, car les MCP sont vus comme des commandes.
00:10:37Nous avons ajouté une règle dans Claude.md : si une sortie MCP est trop longue,
00:10:43il faut la rediriger vers un fichier au lieu de charger le contexte.
00:10:49On suivait la progression via un fichier progress.json.
00:10:54Nous avons demandé à Claude d'implémenter une fonctionnalité.
00:10:59Il a utilisé le MCP Context 7, mais au lieu d'afficher la sortie,
00:11:05il l'a envoyée dans un fichier et utilisé grep pour finaliser le travail.
00:11:10Le fichier Claude.md avec toutes les bonnes pratiques est sur AI Labs Pro.
00:11:16C'est notre communauté où vous trouverez des templates prêts à l'emploi
00:11:20pour vos projets. Si vous appréciez notre travail,
00:11:25c'est le meilleur moyen de nous soutenir. Le lien est en description.
00:11:29C'est la fin de cette vidéo. Pour nous aider à continuer,
00:11:33vous pouvez aussi utiliser le bouton Super Thanks ci-dessous.
00:11:38Comme toujours, merci d'avoir regardé et à la prochaine !

Key Takeaway

MCP to CLI révolutionne l'usage des agents IA en transformant les outils MCP en commandes exécutables, optimisant ainsi la fenêtre de contexte et les coûts de jetons.

Highlights

Le problème majeur de l'encombrement de la fenêtre de contexte par les outils MCP (Model Context Protocol).

L'introduction de MCP to CLI comme solution pour transformer les serveurs MCP en commandes Bash exécutables.

L'avantage de la conversion au runtime avec un mécanisme de cache pour optimiser la performance et la flexibilité.

L'utilisation du format TOON pour réduire drastiquement la consommation de jetons par rapport au JSON ou YAML.

La possibilité de rediriger les sorties volumineuses des MCP vers des fichiers locaux pour éviter de saturer l'IA.

L'importance des "skills" (compétences) pour informer l'agent des outils disponibles sans encombrer ses instructions.

Timeline

Le problème de l'encombrement du contexte MCP

L'auteur explique que l'utilisation massive d'outils MCP finit par saturer la fenêtre de contexte de l'IA avec des descriptions souvent inutiles. Bien que Docker ait proposé une solution via un "code mode", celle-ci restait limitée aux outils configurés par Docker et empêchait la personnalisation. Cloudflare et Anthropic ont également identifié que faire exister ces outils sous forme de code exécutable était la voie à suivre. Cependant, la conversion manuelle de chaque outil en TypeScript s'avère chronophage et complexe à maintenir. Cette section pose les bases du défi technique actuel pour les développeurs utilisant des agents IA.

Introduction à MCP to CLI et conversion au runtime

MCP to CLI est présenté comme un nouvel outil transformant les serveurs MCP en outils CLI via des commandes Bash dynamiques. Contrairement aux solutions comme CLI Hub qui convertissent au moment du build, cet outil effectue la conversion au runtime, reflétant instantanément les mises à jour des MCP originaux. Pour pallier les problèmes de latence, un système de cache intelligent avec une durée de vie par défaut d'une heure est intégré. Cela permet à l'agent de récupérer les outils rapidement tout en conservant une flexibilité totale. Cette approche résout l'un des plus grands dilemmes entre la fraîcheur des données et la vitesse d'exécution.

Avantages techniques : SDK Python et économie de jetons

L'outil repose directement sur le SDK Python de MCP, garantissant une compatibilité native avec les serveurs existants et les API REST/OpenAPI. Des tests réalisés avec la bibliothèque Tiktoken prouvent que cette méthode est nettement moins coûteuse en jetons et plus rapide que les méthodes traditionnelles. L'installation est simplifiée via pip, bien que l'exécution directe soit recommandée pour maintenir un environnement propre. L'auteur souligne aussi l'importance des "skills" fournies pour guider l'agent dans l'utilisation du workflow Bash et de l'authentification. Cette section démontre l'efficacité concrète de l'outil par des chiffres et des fonctionnalités de support.

Sécurité et intégration de l'infrastructure

Après une parenthèse sur le sponsor Orchids, l'auteur illustre l'usage de MCP to CLI avec des outils concrets comme Supabase, GitHub et Puppeteer. Un point crucial est abordé concernant la sécurité : l'outil protège les données sensibles comme les clés API en utilisant des variables d'environnement plutôt que des arguments de ligne de commande visibles. L'intégration est facilitée par une "skill" qui gère automatiquement la configuration des outils pour l'agent Claude. L'exemple montre comment connecter 78 outils provenant de 4 MCP différents sans saturer le système. Cela prouve que la solution est viable pour des projets d'envergure professionnelle nécessitant de nombreuses dépendances.

Mise en pratique et optimisation via le format TOON

L'implémentation d'une application réelle révèle que la simple connexion des outils ne suffit pas ; l'agent doit savoir consulter la documentation à jour via Context 7. Pour optimiser encore plus les échanges, l'auteur introduit le format TOON, une alternative compacte au JSON qui réduit drastiquement la taille des données transmises. L'utilisation de fichiers de configuration comme Claude.md ou, mieux encore, des "skills" spécifiques, permet de diriger l'agent avec précision. L'exemple du middleware Next.js obsolète montre l'importance pour l'IA d'accéder à des ressources externes avant de coder. Cette partie souligne que la gestion du savoir est aussi importante que la gestion des outils.

Tests avancés et manipulation du contexte par fichiers

La vidéo se termine sur des techniques avancées de test avec Puppeteer et l'édition de contexte inspirée de Cursor. L'auteur explique comment rediriger les sorties MCP trop longues vers des fichiers locaux, permettant à l'IA d'utiliser des commandes comme grep pour extraire uniquement l'essentiel. Cette méthode empêche définitivement l'encombrement du contexte tout en permettant de traiter des volumes de données massifs. Les sessions persistantes des MCP assurent que l'état est conservé durant toute la durée de travail de l'agent. Enfin, l'auteur invite la communauté à rejoindre AI Labs Pro pour accéder aux templates et soutenir la chaîne. Cette conclusion synthétise les gains de productivité offerts par cette nouvelle approche du codage assisté par IA.

Community Posts

View all posts