00:00:00L'année 2025 a été véritablement marquante pour l'IA,
00:00:02avec une vague de modèles et d'outils incroyables,
00:00:05chacun plus rapide et plus puissant que le précédent.
00:00:08L'une des sorties les plus importantes a été le Model Context Protocol,
00:00:13lancé par Anthropic fin 2024,
00:00:15et ça a vraiment explosé.
00:00:17De nombreux produits et services ont été construits autour,
00:00:20et à la fin de cette année,
00:00:21je veux partager les six meilleurs MCPs qui ont vraiment changé ma façon de voir le développement.
00:00:26Mais avant cela,
00:00:27un petit mot de la part de notre sponsor,
00:00:28Blink.
00:00:29Si vous avez déjà essayé de construire un SaaS alimenté par l'IA,
00:00:31vous savez que la partie la plus difficile n'est pas l'idée.
00:00:33C'est choisir les modèles,
00:00:35gérer les crédits et faire fonctionner tout ensemble.
00:00:37Blink s'occupe de tout ça.
00:00:39Avec Blink,
00:00:39vous ne vous contentez pas de construire des applications rapidement,
00:00:41vous avez un contrôle total.
00:00:42Choisissez vos propres modèles d'IA,
00:00:44comme Claude Opus,
00:00:45Gemini ou GPT,
00:00:45ou laissez le mode Auto de Blink choisir le meilleur pour votre cas d'usage,
00:00:49en optimisant la sortie et l'utilisation des crédits,
00:00:51contrairement aux outils qui drainent silencieusement les crédits.
00:00:54Concevoir votre application est tout aussi simple.
00:00:56Téléchargez des captures d'écran depuis Figma ou partagez vos inspirations depuis Pinterest ou Dribbble,
00:01:01et Blink recréera l'interface magnifiquement..
00:01:03Intégrer l'IA est aussi fluide.
00:01:04Que ce soit le chat,
00:01:05les images,
00:01:06l'audio ou la vidéo,
00:01:07Blink vous guide pour que tout fonctionne parfaitement..
00:01:10Si vous voulez créer de vraies applications polies qui livrent vraiment,
00:01:13Blink est votre raccourci.
00:01:14Cliquez sur le lien dans le commentaire épinglé et commencez à créer dès aujourd'hui.
00:01:17Commençons par un serveur MCP qui a transformé ma façon de travailler avec les éditeurs de code IA.
00:01:22Context 7.
00:01:23Context 7 récupère toute la documentation et les exemples de code à jour et spécifiques à chaque version directement dans l'agent de codage IA..
00:01:30Cela élimine beaucoup de problèmes qui surviennent lors du codage avec l'IA,
00:01:33comme les incompatibilités de dépendances.
00:01:35Au lieu de cela,
00:01:35il fournit à votre agent IA une base de connaissances sur comment utiliser n'importe quelle bibliothèque.
00:01:39Il est disponible sur plusieurs plans,
00:01:41y compris un plan gratuit limité aux bibliothèques open source.
00:01:44Pour l'utiliser,
00:01:45il suffit de s'inscrire,
00:01:46de créer une clé API et de l'installer dans votre outil de codage préféré en utilisant les commandes d'installation.
00:01:50Une fois que c'est fait,
00:01:51le MCP et tous ses outils seront prêts à être utilisés dans votre projet immédiatement.
00:01:55En utilisant le MCP,
00:01:56le modèle peut consulter la documentation du framework que je lui demande d'utiliser.
00:02:00Il effectue ensuite des appels d'outils pour récupérer la documentation et les guides de démarrage rapide,
00:02:04et implémente la tâche en utilisant cette documentation comme référence.
00:02:07Contrairement à une simple recherche web,
00:02:08qui retourne des résultats non structurés et souvent vagues,
00:02:11Context 7 récupère des extraits de documentation pertinents parce qu'ils maintiennent une base de données vectorielle de documentation fréquemment mise à jour et utilisent la recherche sémantique pour obtenir des données chaque fois qu'une requête est rencontrée.
00:02:21Il y a aussi un autre outil qui fonctionne de manière similaire appelé Ref,
00:02:25qui est essentiellement une version plus économe en contexte de Context 7.
00:02:28Il lie des fonctionnalités comme les capacités de Context 7,
00:02:30la recherche web,
00:02:31le web scraping et la recherche de code sur une seule plateforme.
00:02:34Ref utilise la recherche sémantique et,
00:02:36contrairement à Context 7 qui injecte de grands documents dans la fenêtre de contexte,
00:02:40il expose seulement la partie pertinente pour votre question spécifique.
00:02:43Mais son plan gratuit contient des crédits très limités,
00:02:46après quoi vous devez passer à des plans payants.
00:02:48Donc,
00:02:48à moins que vous ayez besoin de ces fonctionnalités supplémentaires,
00:02:50Context 7 est le meilleur choix.
00:02:51Ce prochain MCP est vraiment important en termes d'économie de contexte et agit comme un pont entre tous les MCPs,
00:02:58le Docker MCP.
00:02:58Il utilise en fait deux outils pour vous permettre de vous connecter à de nombreux MCPs directement dans votre agent IA.
00:03:03Une caractéristique clé de ce MCP est de réduire les outils exposés dans le contexte.
00:03:07Docker maintient un catalogue de serveurs MCP vérifiés en qui vous pouvez avoir confiance.
00:03:11Il vous suffit d'ajouter un seul serveur MCP au client IA que vous utilisez et de connecter les MCPs auxquels vous devez accéder dans Docker.
00:03:17Ensuite,
00:03:18quand vous vous connectez à votre client et que vous lui demandez d'utiliser n'importe quel MCP connecté,
00:03:22il utilisera des outils comme MCP Find et MCP Add pour accéder au MCP via Docker et vous retourner les résultats.
00:03:27En utilisant Docker MCP,
00:03:29seuls les outils requis pour la requête spécifique sont chargés,
00:03:32ce qui empêche le contexte d'être encombré d'outils inutiles.
00:03:35Donc maintenant votre fenêtre de contexte ne contient que deux outils même si les MCPs que vous avez connectés dans Docker en contiennent des centaines.
00:03:41C'est aussi très sécurisé car tous les outils s'exécutent dans un sandbox au sein de Docker.
00:03:46Le problème fondamental rencontré lors de l'utilisation de MCP est une fenêtre de contexte encombrée en raison de nombreux outils exposés dans la fenêtre de contexte alors que seuls quelques-uns sont réellement nécessaires.
00:03:54Cloudflare et Anthropic ont tous deux souligné cela et Cloudflare a donné le concept général de la solution,
00:04:00l'appelant code mode.
00:04:01Docker a en fait été le premier à résoudre ce problème.
00:04:03Nous avons précédemment réalisé une vidéo qui explique ce qu'est le code mode et comment il résout le problème.
00:04:08Le code mode permet également un MCP dynamique qui permet aux agents IA d'aller au-delà de la simple recherche d'outils et de créer un outil compatible JavaScript qui peut appeler d'autres outils MCP.
00:04:18Nous avons démontré cela dans notre vidéo montrant combien de temps et de contexte cette fonctionnalité économise réellement.
00:04:23En arrivant à mon serveur MCP préféré et de référence pour les composants d'interface utilisateur,
00:04:28le serveur MCP du registre ShadCN.
00:04:29ShadCN est une très belle bibliothèque de composants d'interface utilisateur entièrement personnalisables que vous pouvez utiliser directement dans vos applications web.
00:04:36Mais si vous les utilisez directement dans votre interface utilisateur sans lui,
00:04:40vous pourriez rencontrer beaucoup de problèmes car l'agent IA n'a pas de contexte spécifique des composants.
00:04:44Mais avec ce MCP, tout change.
00:04:46Ce MCP vous permet d'obtenir les composants directement et de les installer.
00:04:50Maintenant,
00:04:51le MCP ShadCN vous permet aussi de connecter des registres.
00:04:53Un registre est essentiellement un index qui indique où obtenir certains composants et quelles sont leurs dépendances pour les installer correctement.
00:05:00Ce serveur MCP vous permet d'interagir avec les éléments des registres ShadCN et d'obtenir des composants comme Aseternity UI,
00:05:07Magic UI et bien d'autres.
00:05:09C'est plutôt simple à installer.
00:05:10Il suffit de copier-coller la commande et le MCP sera configuré et prêt à être utilisé immédiatement.
00:05:15L'ajout de registres personnalisés est aussi simple que d'ajouter quelques lignes de code au fichier components.json.
00:05:21Et honnêtement,
00:05:21je l'ai beaucoup utilisé pour construire de beaux composants d'interface utilisateur.
00:05:24Celui-ci est assez nouveau,
00:05:26mais Google vient d'annoncer un serveur MCP entièrement géré qui vous donne accès aux services Google Cloud.
00:05:30Lancé aux côtés de Gemini 3,
00:05:32ce serveur introduit le Google Maps MCP.
00:05:35Il permet aux agents d'utiliser l'ancrage basé sur la localisation,
00:05:37en extrayant les données précises directement de Google Maps et ouvre de nouvelles possibilités pour vos agents IA.
00:05:42Le MCP BigQuery permet aux agents d'interpréter les données d'entreprise tout en éliminant les problèmes de données sensibles dans la fenêtre de contexte.
00:05:49De plus,
00:05:49ils ont lancé le Google Compute MCP,
00:05:52qui permet au MCP de gérer les services cloud.
00:05:54Et avec le Kubernetes MCP,
00:05:55les opérations de conteneurs n'ont jamais été aussi simples.
00:05:58Tous ces nouveaux MCPs sont distants et ne sont pas non plus open source.
00:06:02Leurs guides de démarrage rapide sont liés sur leur dépôt GitHub,
00:06:05que je vais lier dans la description ci-dessous.
00:06:07Mais nous ne pouvons pas ignorer de mentionner les autres MCPs des services Google.
00:06:10Ceux-ci sont open source et incluent Google Workspace,
00:06:13Firebase,
00:06:13Google Analytics,
00:06:14Flutter et bien d'autres.
00:06:15Parmi tous ceux-ci,
00:06:16j'ai beaucoup utilisé le Firebase MCP dans mes projets.
00:06:19Puisque nous gérons une chaîne YouTube et gérons tout notre contenu,
00:06:23uploads,
00:06:23délais,
00:06:24recherche et systèmes dans Notion,
00:06:26le Notion MCP a été le plus utile pour nous.
00:06:28C'est super facile à installer.
00:06:29Il suffit d'exécuter une seule commande et c'est configuré immédiatement..
00:06:32Vous n'avez qu'à l'authentifier la première fois que vous l'installez,
00:06:35et il est doté de tous les outils nécessaires pour gérer vos pages Notion.
00:06:38En utilisant cet ensemble d'outils,
00:06:40il peut rechercher,
00:06:40récupérer,
00:06:41créer,
00:06:41mettre à jour,
00:06:42déplacer et gérer une large gamme de tâches au sein de votre espace de travail connecté.
00:06:45Il existe d'autres utilisations incroyables du Notion MCP également.
00:06:48J'utilise personnellement Claude et le Notion MCP pour gérer mon équipe,
00:06:52les états du contenu,
00:06:53suivre les idées que nous avons en pipeline et ajouter de nouvelles idées ou les affiner.
00:06:57Cela m'a considérablement aidé à suivre et à simplifier mes tâches quotidiennes et mon flux de travail en utilisant le Notion MCP.
00:07:03Il existe aussi un MCP Obsidian avec des capacités similaires au cas où vous n'utiliseriez pas Notion pour vos tâches.
00:07:09Le MCP Obsidian peut effectuer toutes les mêmes opérations et gérer vos pages.
00:07:13En terminant avec l'un des serveurs MCP les plus puissants que j'ai honnêtement commencé à utiliser dans la plupart de mes projets : le MCP Superbase.
00:07:20Puisque nous utilisons Superbase pour la plupart de nos backends dans les petits projets que nous livrons,
00:07:25ce MCP a été d'une aide considérable.
00:07:26Il élimine le besoin d'écrire manuellement des requêtes SQL ou de gérer les schémas et configurations de bases de données.
00:07:32Avec ce MCP,
00:07:33votre éditeur de code IA peut gérer l'intégralité des opérations,
00:07:36de la gestion du schéma de base de données aux opérations SQL.
00:07:39Et vous n'avez qu'à le diriger en utilisant des prompts sur la plateforme que vous utilisez.
00:07:42Le processus d'installation est assez simple.
00:07:44Vous n'avez qu'à vous connecter au MCP,
00:07:45l'authentifier,
00:07:46et tous les outils seront disponibles pour l'utiliser.
00:07:49Après cela,
00:07:49vous demandez simplement à votre outil IA de créer une base de données appropriée pour vous.
00:07:52Il peut gérer tout,
00:07:53de la création du projet à la gestion des coûts et à la configuration de l'environnement entièrement automatiquement.
00:07:58Nous en arrivons à la fin de cette vidéo.
00:08:00Si vous voulez soutenir la chaîne et nous aider à continuer à produire des vidéos comme celle-ci,
00:08:04vous pouvez le faire en utilisant le bouton super thanks ci-dessous.
00:08:07Comme toujours, merci de regarder et à la prochaine !