00:00:00Ces deux derniers mois, la communauté IA a réalisé que les MCP cachent un énorme problème.
00:00:04Et face à cela, la communauté a commencé à proposer des solutions.
00:00:08Mais toutes ces solutions présentent des lacunes majeures.
00:00:10Il y a quelque temps, nous avons fait une vidéo sur la solution de Docker,
00:00:12que nous considérions comme la meilleure réponse au problème MCP jusqu'ici.
00:00:16Docker a lancé le "code mode", permettant aux agents d'écrire du JavaScript appelant directement les outils MCP.
00:00:21Cela a résolu le problème de la consommation excessive de contexte par les outils MCP,
00:00:24causée par l'exposition de l'outil et de sa description dans la fenêtre de contexte.
00:00:27Si vous utilisez beaucoup de MCP, votre fenêtre de contexte se retrouve encombrée par
00:00:32des outils inutiles, dont la plupart ne servent quasiment jamais.
00:00:36Mais avec la passerelle MCP de Docker, vous étiez limité aux MCP configurés par Docker,
00:00:41avec des restrictions sur les MCP locaux et distants.
00:00:43De plus, il était impossible de sauvegarder ces outils personnalisés en tant que fonctions.
00:00:47Tout a changé quand Cloudflare a identifié le problème et proposé une solution :
00:00:51faire exister ces outils sous forme de code exécutable plutôt que dans la fenêtre de contexte.
00:00:56Anthropic, à l'origine de ce protocole, a reconnu cette lacune
00:01:00en publiant un article soulignant exactement ce point précis.
00:01:04Dès lors, les gens ont pris le problème au sérieux et exploré des solutions.
00:01:09Cependant, convertir chaque outil en fichier TypeScript présente aussi des limites.
00:01:13Avec de nombreux MCP connectés, il faut convertir chacun individuellement en code
00:01:18et passer beaucoup de temps à vérifier qu'aucun n'échoue durant le processus.
00:01:22Puisque le problème est désormais reconnu,
00:01:24de meilleures solutions continuent de voir le jour.
00:01:26C'est ainsi que nous avons découvert ce nouvel outil appelé MCP to CLI.
00:01:30MCP to CLI règle l'encombrement du contexte en transformant tous
00:01:36les serveurs MCP en outils CLI exécutables via des commandes Bash.
00:01:40Dans notre équipe, nous utilisons surtout Cloud Code, qui propose un flag CLI
00:01:45tentant de résoudre une partie du problème en n'exposant pas
00:01:50tous les outils d'emblée. Cela permet à Cloud Code de charger dynamiquement
00:01:55chaque outil au besoin. Mais il reste un autre souci avec Cloud Code.
00:02:00Comme vous le savez, les MCP renvoient leurs résultats directement dans la fenêtre de contexte.
00:02:05Si l'outil MCP renvoie un gros volume de données, cela reste dans le contexte,
00:02:10entraînant un encombrement inutile. Vous avez peut-être entendu parler d'autres outils
00:02:15open source comme CLI Hub, mais ils sont inefficaces car ils convertissent au build
00:02:20et non au runtime. Mais que signifie réellement la conversion au runtime ?
00:02:25Cela signifie que l'outil devient une commande Bash au moment précis de l'appel.
00:02:29Ça semble correct, mais qu'arrive-t-il si le MCP d'origine est mis à jour ?
00:02:34Comme cet outil génère ses outils MCP au runtime, tout changement est répercuté.
00:02:39C'était impossible avec une génération au build.
00:02:43Il aurait fallu récupérer et mettre à jour l'outil manuellement à chaque fois.
00:02:48On pourrait croire que convertir l'outil à chaque appel ralentit tout. C'est là
00:02:53qu'intervient le mécanisme de cache intégré.
00:02:58Il sauvegarde les outils MCP dans un cache avec une durée de vie d'une heure par défaut.
00:03:03Les outils fréquents y restent une heure, permettant à l'agent une récupération rapide
00:03:08sans sacrifier la flexibilité du runtime. Cet outil repose
00:03:13directement sur le SDK Python de MCP, le même qu'utilisent les serveurs MCP.
00:03:19Il exécute les appels comme des commandes Bash et n'injecte la réponse
00:03:24que si on lui demande. Il gère aussi les API OpenAPI et REST via
00:03:30la même interface CLI ; toute API sans serveur MCP peut donc être utilisée
00:03:35exactement de la même façon. Sans cet outil, vous seriez limité.
00:03:39Les autres solutions n'offrent pas la flexibilité de centraliser tous les types de MCP.
00:03:44Pour prouver l'efficacité en jetons, ils ont testé l'outil avec Tiktoken,
00:03:49la bibliothèque Python de comptage de tokens. Résultat : c'est bien moins cher
00:03:54et bien plus rapide. Ne nous croyez pas sur parole, les chiffres le prouvent.
00:03:59Vous pouvez l'installer via pip ou l'exécuter directement.
00:04:03Nous avons choisi de l'exécuter sans installation pour garder un environnement propre.
00:04:07Ils fournissent aussi une "compétence" (skill) pour aider les agents à mieux l'utiliser.
00:04:13Elle décrit le workflow et donne des exemples de commandes Bash pour l'authentification et le cache,
00:04:18données que votre agent ne possède pas. Mais avant d'aller plus loin,
00:04:22un mot de notre sponsor Orchids. La plupart des constructeurs IA gèrent bien les maquettes,
00:04:27mais échouent sur les logiques complexes. C'est là qu'intervient Orchids.
00:04:32C'est le premier agent IA capable de déployer n'importe quelle app sur n'importe quel stack.
00:04:36Utilisez vos propres abonnements ChatGPT, Claude ou Gemini au prix coûtant,
00:04:41et même GitHub Copilot. Il gère tout, pas seulement le Web.
00:04:47Déployez des apps mobiles, des extensions Chrome ou des bots Slack complexes.
00:04:52Regardez : un setup OpenClaw gérant du matériel complexe,
00:04:57un terminal Bloomberg traitant des flux de données en temps réel,
00:05:02et des apps mobiles comme cet identifiant de bâtiment utilisant la caméra.
00:05:07Cliquez sur le lien en commentaire et utilisez le code March 15 pour 15% de réduction.
00:05:12Comme vous, nous voulons réussir. Une façon d'y arriver est de repérer un créneau.
00:05:17Comme cette idée : Grinder, mais pour les chevaux. Blague à part,
00:05:22créer de gros produits nécessite beaucoup d'outils MCP, car ils ont beaucoup de dépendances
00:05:27qui saturent vite le contexte. Nous avons connecté l'agent au MCP Supabase via MCP to CLI,
00:05:34car c'était notre infrastructure backend. Plus besoin de rien
00:05:38configurer manuellement grâce à la "skill" installée plus tôt.
00:05:43Elle s'occupe de tout pour vous. Cependant, avant de vous lancer,
00:05:47pensez à récupérer les jetons d'accès de vos MCP.
00:05:52Sinon vous aurez des erreurs, comme nous, avant de donner le jeton à Claude.
00:05:57Une fois configuré, les outils sont prêts. On pourrait s'inquiéter
00:06:01du fait qu'une commande Bash puisse exposer des données sensibles (clés API)
00:06:06lors du listage des processus. Mais cet outil ajoute une couche de protection.
00:06:11Il ne met pas les données sensibles dans les arguments de la ligne de commande.
00:06:15Il passe par des variables d'environnement, des fichiers de jetons,
00:06:21ou un gestionnaire de secrets. C'est donc sécurisé. Comme pour Supabase,
00:06:26nous avons connecté le MCP GitHub, Puppeteer pour les tests navigateur,
00:06:32et Context 7 pour donner à l'agent une documentation à jour.
00:06:37Une fois tout connecté, nous avons demandé à Claude de vérifier.
00:06:42Il a confirmé la connexion de 4 MCP, soit 78 outils au total ici. Au passage,
00:06:47si vous aimez notre contenu, cliquez sur le bouton "hype", ça nous aide énormément.
00:06:52Une fois connectés, nous avons commencé l'implémentation incrémentale de l'app.
00:06:57D'abord, la connexion du code côté client au backend Supabase.
00:07:02Quand Claude a lancé MCP to CLI pour créer le projet, le jeton d'accès
00:07:07n'apparaissait pas dans l'appel. Il référençait notre fichier .env.local
00:07:12pour le récupérer. Il a tout configuré et ajouté la logique de connexion.
00:07:17Mais nous avons remarqué qu'il utilisait un fichier middleware obsolète
00:07:22pour la gestion des sessions. La nouvelle version de Next.js utilise un proxy,
00:07:27ce qui aurait causé une erreur au lancement. Cela prouve bien
00:07:31que connecter des outils ne suffit pas ; il faut que l'agent sache les utiliser.
00:07:36Nous avons donc créé un fichier Claude.md lui demandant d'utiliser le MCP Context 7
00:07:42avant d'écrire du code. Ainsi, il consulte la doc avant d'implémenter quoi que ce soit.
00:07:47Après la création des tables et de l'auth sur Supabase, nous avons signalé
00:07:52l'avertissement sur le middleware à Claude. Il a alors utilisé
00:07:57Context 7 pour récupérer la bonne documentation et a résolu le problème.
00:08:03En explorant l'outil, nous avons trouvé encore mieux qu'un fichier Claude.md.
00:08:07Les "skills" sont préférables car leurs descriptions sont chargées directement
00:08:11dans le contexte de l'agent. Il sait alors quels outils sont disponibles
00:08:16plutôt que d'espérer qu'il lise nos instructions dans un fichier MD.
00:08:21Nous lui avons demandé de créer une skill pour chaque MCP connecté.
00:08:26Chaque skill détaillait les outils disponibles et leur mode d'emploi.
00:08:32Problème suivant : notre application était loin d'être fonctionnelle.
00:08:36Le retour des utilisateurs (les chevaux !) était clair : ils voulaient un chat.
00:08:41Nous avons donc demandé à Claude de rendre le chat opérationnel sur l'interface.
00:08:46Lors du test, les messages ne chargeaient pas. Nous avons utilisé
00:08:51le MCP Puppeteer pour tester le flux de messages. Il est crucial que l'agent
00:08:56puisse interagir avec sa propre UI pour détecter ce qu'une relecture de code rate.
00:09:01Il a créé deux utilisateurs, mais n'a pas pu maintenir les sessions entre les appels,
00:09:06chaque appel lançant un nouveau navigateur. Vu le temps perdu
00:09:10dans un navigateur sans interface, nous avons réalisé une chose :
00:09:15il valait mieux laisser le MCP gérer cela. C'était bien plus rapide.
00:09:21Nous préférons l'extension navigateur de Claude, plus performante
00:09:25et capable de conserver les sessions pour des tests de bout en bout.
00:09:30Les MCP tournent en processus persistants, maintenant l'état durant toute la session.
00:09:35Cet outil permet aussi de contrôler le format de sortie, comme JSON ou brut.
00:09:40Il supporte aussi TOON, un format de code optimisé pour les LLM.
00:09:46Des MCP comme Context 7 renvoient souvent des tonnes de données.
00:09:51Pour éviter cela, nous avons spécifié dans Claude.md d'utiliser
00:09:57le format TOON. C'est un format compact combinant indentation
00:10:02et listes de type CSV, bien plus léger que JSON ou YAML. On économise ainsi
00:10:07beaucoup de jetons. Mais la plus grande avancée vient d'une fonction
00:10:12impossible avec la gestion native des MCP. Vous vous souvenez peut-être
00:10:16que Cursor a lancé un workflow d'édition de contexte. Ils traitaient
00:10:22les résultats MCP comme des fichiers et utilisaient des scripts Bash
00:10:27comme grep pour extraire les données. Nous l'avions montré en vidéo.
00:10:32C'est maintenant possible partout grâce à cette CLI, car les MCP sont vus comme des commandes.
00:10:37Nous avons ajouté une règle dans Claude.md : si une sortie MCP est trop longue,
00:10:43il faut la rediriger vers un fichier au lieu de charger le contexte.
00:10:49On suivait la progression via un fichier progress.json.
00:10:54Nous avons demandé à Claude d'implémenter une fonctionnalité.
00:10:59Il a utilisé le MCP Context 7, mais au lieu d'afficher la sortie,
00:11:05il l'a envoyée dans un fichier et utilisé grep pour finaliser le travail.
00:11:10Le fichier Claude.md avec toutes les bonnes pratiques est sur AI Labs Pro.
00:11:16C'est notre communauté où vous trouverez des templates prêts à l'emploi
00:11:20pour vos projets. Si vous appréciez notre travail,
00:11:25c'est le meilleur moyen de nous soutenir. Le lien est en description.
00:11:29C'est la fin de cette vidéo. Pour nous aider à continuer,
00:11:33vous pouvez aussi utiliser le bouton Super Thanks ci-dessous.
00:11:38Comme toujours, merci d'avoir regardé et à la prochaine !