00:00:00Depuis que les modèles sont devenus puissants, beaucoup ont commencé à créer des produits géniaux,
00:00:04en y intégrant l'IA pour résoudre de nombreux problèmes. Mais ces systèmes consomment énormément
00:00:09de tokens, surtout via une API. Pourtant, la solution est bien plus
00:00:15simple qu'on ne le pense. La meilleure architecture n'est pas un pipeline complexe ou un réglage à grande échelle,
00:00:20mais repose sur une vieille philosophie d'Unix : tout est un fichier.
00:00:25Certes, Unix ne parlait pas du coût des modèles, mais de périphériques et de fichiers. Pourtant,
00:00:30étonnamment, la solution à ce problème de coût élevé repose sur ce même principe.
00:00:35C'est précisément ce qu'explique un ingénieur logiciel chez Vercel. Avant d'explorer pourquoi,
00:00:41comprenons d'abord comment ces modèles fonctionnent réellement. Ils ont été entraînés
00:00:46sur des quantités massives de code. C'est pour cette raison qu'ils comprennent si bien le code,
00:00:50les structures de répertoires et les scripts bash que les développeurs utilisent pour naviguer et chercher des fichiers.
00:00:56Quand un agent utilise grep ou ls, il ne fait rien de nouveau. Il fait simplement ce qu'il
00:01:01sait déjà faire, mais de manière plus contrôlée. Cette approche ne se limite pas au code ; les agents peuvent
00:01:06explorer n'importe quel répertoire, car ils maîtrisent les commandes et comprennent les systèmes de fichiers.
00:01:11Dès qu'un agent a besoin d'une info, il explore le système de fichiers avec des commandes bash comme ls ou find.
00:01:17Une fois qu'il a localisé le fichier exact avec find,
00:01:23il cherche le contenu pertinent à l'intérieur via du filtrage par motifs avec grep et cat.
00:01:27Seule une petite partie de l'information est envoyée au modèle, tandis que le reste n'est pas chargé,
00:01:32ce qui permet de garder une fenêtre de contexte propre. Ainsi, on ne gaspille pas de tokens
00:01:36sur des données inutiles. Grâce à cette approche, l'agent renvoie un résultat structuré.
00:01:41Ce modèle fonctionne si bien que Vercel a fini par publier un outil bash en open source conçu pour ça,
00:01:46permettant aux agents d'explorer les fichiers exactement comme le ferait un développeur.
00:01:51Pour fournir les bonnes informations à un LLM, il existe généralement deux méthodes :
00:01:56soit via un prompt système détaillé, en espérant que l'agent le suive,
00:02:00soit en injectant les données dans une base vectorielle via une recherche sémantique. Mais chaque
00:02:06approche a ses limites. Les prompts système ont une fenêtre de tokens restreinte,
00:02:10ce qui limite le volume d'infos envoyées. Pour de gros volumes, on utilise la recherche sémantique,
00:02:15qui trouve l'info par proximité de sens. Cependant, la recherche vectorielle privilégie
00:02:20la similarité plutôt que la précision absolue. Elle renvoie des blocs de données qui correspondent
00:02:25au contexte général, mais pas forcément à la valeur précise cherchée. Le modèle doit alors extraire lui-même le contenu.
00:02:30Le système de fichiers offre une approche différente. Sa structure correspond directement à votre domaine.
00:02:35L'organisation des dossiers reflète souvent les relations logiques entre les données.
00:02:40Avec les fichiers, pas besoin d'aplatir ces relations en vecteurs compressés,
00:02:45ce qui évite de perdre des connexions souvent sacrifiées lors d'une recherche sémantique.
00:02:49Ces liens hiérarchiques sont préservés naturellement, maintenant la logique organisationnelle
00:02:54déjà présente dans vos données.
00:02:59Autre avantage : la récupération est précise car grep et bash renvoient des correspondances exactes,
00:03:05contrairement aux vecteurs qui renvoient des blocs flous en laissant le modèle décider quoi utiliser.
00:03:10Vous obtenez uniquement la valeur requise. Le contexte est minimal
00:03:15car les agents reçoivent le segment spécifique dont ils ont besoin, sans charger d'autres blocs.
00:03:20Cela leur permet de rester concentrés sur l'information exacte sans se perdre dans des données inutiles.
00:03:25Cette idée ne vous est d'ailleurs pas inconnue. Elle est déjà utilisée
00:03:30par Claude Code et les agents CLI, qui utilisent des fonctions bash pour affiner les résultats.
00:03:36Nous utilisons déjà le système de fichiers et les capacités de Claude Code
00:03:41pour nos propres recherches et évaluations d'idées. Généralement, nous soumettons
00:03:46chaque nouvel outil logiciel à ce pipeline, qui comprend plusieurs phases de validation.
00:03:51Tout est défini dans un fichier Markdown : objectifs, critères de test,
00:03:56structure du document final et informations nécessaires pour chaque étape.
00:04:01Nous fournissons aussi à Claude des documents de référence pour le style,
00:04:06puis le rapport final est enregistré dans un dossier de résultats. Pour guider la recherche,
00:04:11un fichier Claude.md explique comment valider l'idée étape par étape,
00:04:17afin d'obtenir un document qui respecte tous nos critères.
00:04:22Dès que j'ai un sujet à étudier, je donne simplement l'idée ou l'outil à Claude.
00:04:27Il lance alors le processus de validation en six phases : il analyse d'abord le concept,
00:04:32puis le traite étape par étape. Une fois le parcours terminé,
00:04:37Claude génère un rapport final qui nous permet de vérifier si l'idée a du potentiel ou non.
00:04:42Cette approche par fichiers nous fait gagner un temps fou en automatisant une recherche manuelle fastidieuse.
00:04:47Si vous voulez tester ce pipeline pour vos propres besoins,
00:04:52un modèle prêt à l'emploi est disponible au sein de notre communauté,
00:04:57AI Labs Pro. Là-bas, et pour toutes nos vidéos précédentes,
00:05:03vous trouverez des templates, des prompts et toutes les commandes à intégrer à vos projets.
00:05:08Si vous appréciez notre travail et souhaitez nous soutenir, c'est le meilleur moyen de le faire. Liens en description.
00:05:12En lisant une étude de cas sur la création d'un agent de résumé de ventes
00:05:17basé sur cette architecture, j'ai eu une idée intéressante pour un projet personnel.
00:05:22Ils ont publié le code en open source, et j'ai voulu l'adapter.
00:05:27Je travaillais sur un projet de gestion des politiques d'entreprise avec beaucoup de données
00:05:32en JSON, Markdown et TXT, classées par département. Normalement,
00:05:39j'aurais utilisé une base vectorielle comme Chroma, mais j'ai décidé de tester cet outil.
00:05:44J'ai donc implémenté cette architecture. Côté back-end, j'ai indiqué le chemin du dossier
00:05:49contenant les données et j'ai donné à l'agent l'accès aux commandes ls, cat, grep et find,
00:05:55avec un guide d'utilisation. J'ai utilisé le modèle Gemini 2.5 Flash,
00:06:01configuré avec l'outil bash de Vercel pointant vers mes documents.
00:06:06Et quand j'ai testé l'agent avec des questions sur les données, il a
00:06:11répondu en se basant exactement sur le contenu des politiques de l'entreprise et des manuels de congés.
00:06:16Pour vérifier le fonctionnement, j'ai surveillé l'utilisation des outils dans le terminal.
00:06:21L'agent a d'abord utilisé ls pour voir les fichiers, puis grep avec du pattern matching
00:06:27pour chercher les jours de congé ou des termes similaires. Cet ensemble de commandes
00:06:32a traité la requête avec la même précision qu'un système RAG classique. Si vous voulez
00:06:38le code source de ce projet, il est téléchargeable sur notre plateforme communautaire.
00:06:43La première question que je me suis posée avec cet outil était :
00:06:47est-il vraiment prudent de laisser des agents exécuter des commandes sur un serveur ?
00:06:52En décembre dernier, une vulnérabilité critique de score 10.0 a touché les React Server Components,
00:06:57impliquant justement de l'exécution de code sur serveur. C'est une capacité puissante mais risquée.
00:07:03Alors pourquoi faire confiance à cet outil ? Parce qu'il fonctionne dans un bac à sable isolé.
00:07:08Il n'accède qu'au répertoire spécifié et ne peut rien modifier d'autre.
00:07:14L'article précise que l'agent explore les fichiers sans accès au système de production.
00:07:19Vos données sont donc en sécurité même si l'agent tente d'exécuter des commandes malveillantes.
00:07:24Il offre deux types d'isolation. La première est un environnement en mémoire.
00:07:29L'outil bash n'agit que sur les fichiers autorisés, comme nous l'avons fait pour notre agent.
00:07:35La deuxième est un bac à sable totalement compatible,
00:07:40offrant une isolation complète via une machine virtuelle Vercel. Le choix dépend de vos besoins.
00:07:46L'approche en mémoire est plus légère et rapide, tandis que l'isolation par VM
00:07:51offre des garanties de sécurité renforcées. Bien que cette méthode réduise les coûts,
00:07:56elle ne convient pas à tous les problèmes. Elle n'est pas idéale pour
00:08:01les recherches basées sur le sens des mots, car les outils bash font de la correspondance exacte.
00:08:06Comme on l'a vu, notre agent a utilisé des mots-clés précis pour trouver les données.
00:08:11Ce n'est pas non plus adapté aux structures de fichiers désorganisées où l'agent multiplierait
00:08:17les appels d'outils inutilement. Une structure claire est préférable.
00:08:22Mon conseil : utilisez l'outil bash pour des données très structurées et des requêtes précises.
00:08:27Privilégiez le RAG quand le sens profond du texte prime ou quand les requêtes sont floues.
00:08:32Avant de terminer, un mot sur notre sponsor : Brilliant.
00:08:37Les meilleurs ingénieurs ne se contentent pas de connaître la syntaxe, ils analysent les problèmes à la source.
00:08:42C'est pourquoi nous sommes partenaires de Brilliant. Leur philosophie est d'apprendre par la pratique.
00:08:47Ils privilégient la résolution active de problèmes pour manipuler les concepts au lieu de les mémoriser.
00:08:52Par exemple, dans leur cours "Comment fonctionne l'IA", vous ne faites pas que lire, vous agissez sur la logique.
00:08:57Vous manipulerez des aspects techniques comme le calcul de perte ou la visualisation d'interpolation,
00:09:02forgeant une intuition profonde que les cours vidéo ne peuvent offrir.
00:09:07Grâce à leurs cours interactifs, vous maîtriserez réellement les concepts dont nous parlons.
00:09:12Bénéficiez aussi de 20 % de réduction sur l'abonnement annuel premium pour accéder à tout leur catalogue.
00:09:17Cliquez sur le lien en description ou scannez le QR code pour profiter de 30 jours d'essai gratuit.
00:09:22C'est la fin de cette vidéo. Si vous souhaitez nous soutenir et nous aider
00:09:28à continuer ce contenu, vous pouvez utiliser le bouton Merci ci-dessous.
00:09:32Merci de nous avoir suivis, et à bientôt pour la prochaine !