00:00:00Si vous codez avec Claude Code, vous avez sûrement déjà connu la saturation du contexte. Le problème,
00:00:05c'est que chaque appel d'outil MCP dans Claude Code coûte extrêmement cher, car chacun d'entre
00:00:11eux déverse l'intégralité de ses données directement dans la fenêtre de contexte de 200k du modèle. Et plus
00:00:17vous avez d'outils à votre disposition, plus votre contexte s'épuise rapidement. Dans certains scénarios,
00:00:22on se retrouve avec 30 minutes d'utilisation active de l'agent avant que le contexte ne se compacte. C'est
00:00:28là que l'IA commence à oublier des fichiers, des tâches et des décisions cruciales. Sans oublier que
00:00:34vous dépensez beaucoup d'argent en tokens. Mais un serveur MCP existe pour résoudre ce problème majeur.
00:00:40Il s'appelle "Context Mode". Dans cette vidéo, nous verrons ce qu'il fait,
00:00:44comment il fonctionne, et nous l'essaierons nous-mêmes avec une petite démo.
00:00:48Ça va être passionnant, alors plongeons dans le vif du sujet.
00:00:55Pour comprendre pourquoi cela arrive, regardons les chiffres. Une seule capture Playwright
00:01:00d'une page web pèse environ 56 ko. Lire 20 tickets GitHub représente 59 ko. Si vous répétez
00:01:08ces opérations plusieurs fois lors de la phase de planification, vous aurez consommé 70 % de votre fenêtre avant même
00:01:14que l'agent n'ait écrit la moindre ligne de code. Context Mode agit comme une couche de virtualisation.
00:01:20Au lieu que l'IA communique directement avec votre OS, elle communique avec un bac à sable. Et au lieu de déverser
00:01:26des sorties massives, Context Mode les indexe dans une base SQLite locale via FTS5, soit la recherche plein texte.
00:01:34Le résultat est impressionnant. Par exemple, cette capture Playwright de 56 ko est réduite à 299
00:01:41octets, soit une réduction de 99 %. Ou encore, ce CSV d'analyse est compressé à 222 octets,
00:01:49ce qui frise les 100 % de réduction. Mais économiser des tokens n'est qu'une partie de la solution. La vraie utilité,
00:01:56c'est la continuité de la session. On a tous vu l'agent compacter l'historique et soudainement perdre le fil
00:02:03du code écrit 10 minutes plus tôt. Mais Context Mode utilise des hooks pour surveiller chaque modification, chaque
00:02:09opération Git et tâche d'agent secondaire. Quand votre conversation se compacte, Context Mode génère
00:02:15un instantané hiérarchisé par priorité, souvent sous les 2 ko, et le réinjecte. C'est un véritable point
00:02:22de sauvegarde pour votre session de code. On peut ainsi passer d'une session de 30 minutes
00:02:27à environ 3 heures. Il suit aussi les décisions et les erreurs. Par exemple, si l'IA a tenté
00:02:34un correctif qui a échoué 20 minutes plus tôt, elle ne refera pas l'erreur après la réinitialisation du contexte.
00:02:40L'installation est très simple. Si vous utilisez Claude Code, ajoutez d'abord le marketplace Context Mode
00:02:46en lançant la commande suivante. Ensuite, exécutez la commande d'installation du plugin. Une fois cela fait,
00:02:53vous êtes prêt. Après l'installation, l'outil gère automatiquement le serveur MCP, les hooks et les
00:02:57instructions de routage. Si vous utilisez Gemini CLI ou VS Code Copilot, vous pouvez faire
00:03:03un "npm install context-mode" et ajouter la config à vos paramètres. Voyons maintenant Context Mode en action.
00:03:10J'ai ici une commande Python simple qui crée un faux fichier de log d'accès contenant
00:03:15une liste de requêtes API fictives avec leurs codes de statut. Et toutes les cent lignes se trouve
00:03:22une erreur 500. Lançons maintenant Claude et demandons : "Utilise Context Mode pour indexer access.log."
00:03:30"Je veux trouver tous les motifs d'erreur 500 et résumer les adresses IP associées."
00:03:36En arrière-plan, Context Mode fragmente les 5 000 lignes du fichier access.log dans sa propre base
00:03:44de données SQLite FTS5. Claude reçoit seulement la confirmation que le fichier est indexé, et non
00:03:51les 5 000 lignes brutes. Désormais, Claude peut interroger intelligemment la base indexée pour consulter
00:03:57le contenu au lieu de parcourir tout le fichier. On voit ici les résultats renvoyés par Claude. Mais surtout,
00:04:02regardons les économies réalisées. On peut le faire en lançant la commande "context-mode : cts-stats" pour
00:04:09vérifier la quantité de données sauvegardées par Context Mode durant cette session. Vous pouvez voir les résultats
00:04:15juste ici. Au lieu d'injecter l'intégralité des 20 ko dans la conversation, Context Mode a gardé
00:04:21environ 5 ko de données brutes dans le bac à sable. Ce résultat est déjà impressionnant pour un
00:04:27petit fichier. On a évité l'entrée d'environ 1 200 tokens dans la fenêtre de contexte. Au total, on obtient
00:04:34une belle réduction de 25 % sur ce petit test. Ça n'a l'air de rien, mais n'oubliez pas que
00:04:41dans une session Claude classique, ces données resteraient là indéfiniment, renvoyées avec chaque
00:04:47nouveau message envoyé. En les gardant dans le bac à sable, on commence déjà à prolonger la durée
00:04:53de cette session. Ce fichier de démo est petit, mais sur des fichiers plus volumineux,
00:04:58les économies peuvent être massives. Si vous travaillez sur une recherche de repo géant ou l'analyse
00:05:03de logs de production, ces 1 200 tokens économisés peuvent vite devenir 100 000 tokens. Mais l'objectif
00:05:11n'est pas seulement de réduire les coûts d'API, même si c'est un bonus appréciable. C'est aussi de préserver
00:05:18l'intelligence du modèle. En nettoyant le bruit de la fenêtre de contexte, vous laissez
00:05:24plus de place au raisonnement pur. Vous donnez à Claude l'espace nécessaire pour être un meilleur ingénieur.
00:05:30Si vous bâtissez des projets complexes avec des agents IA, testez cet outil pour voir
00:05:35jusqu'où vous pouvez prolonger vos sessions avant que l'agent ne commence à saturer et à oublier.
00:05:41Si vous avez aimé cette analyse technique, faites-le-moi savoir en cliquant sur le bouton "J'aime"
00:05:45sous la vidéo. Et n'oubliez pas de vous abonner à notre chaîne. C'était
00:05:50Andris de Better Stack, on se retrouve dans les prochaines vidéos.