00:00:00Sommes-nous en train de passer de la gestion d'agents à l'attribution de ce rôle même à l'IA ?
00:00:03Depuis que l'IA a investi le domaine des agents et a commencé à interagir avec des outils,
00:00:07tout a changé. Désormais, nous laissons l'IA utiliser des outils en notre nom,
00:00:11en utilisant des systèmes d'agents comme Claude Code pour faire le travail à notre place. Notre rôle consiste désormais simplement à
00:00:15déléguer des tâches aux agents et à les laisser s'occuper de l'exécution. Mais nous allons déjà au-delà
00:00:20de cette simple délégation. Claude a bénéficié d'une mise à jour où il gère les tâches d'une manière différente
00:00:25de d'habitude, en prenant en charge une grande partie de la délégation lui-même et en l'intégrant directement
00:00:30au produit. Cela a ajouté une couche d'abstraction supplémentaire et modifié notre façon de travailler. C'est précisément ce que
00:00:35ce fondateur de startup explique dans son article. La nouvelle mise à jour de Claude ne semble peut-être pas
00:00:40révolutionnaire de prime abord car elle ressemble à de simples listes de tâches, mais c'est en réalité une évolution majeure.
00:00:44L'idée principale derrière l'essaim d'agents est de faire coordonner plusieurs agents IA sur des tâches complexes,
00:00:50en créant des sous-agents et en gérant les dépendances en parallèle. Cela signifie qu'ils peuvent prendre une tâche complexe
00:00:55confiée par un utilisateur et la décomposer en plusieurs tâches pour les agents IA, en les laissant travailler de manière isolée.
00:01:00Désormais, vous pouvez parler à Claude comme à un chef de projet, en lui confiant une mission globale,
00:01:05et Claude s'occupe automatiquement de la décomposition et de la délégation. Avec cette mise à jour, votre tâche peut
00:01:10survivre à la commande de nettoyage et même à un redémarrage de session. Nous allons vous expliquer exactement comment cela fonctionne
00:01:14dans un instant. Avant ce système de tâches, lorsqu'on travaillait avec Claude, il fallait souvent compacter la mémoire
00:01:19car même s'il divisait les tâches, cela restait un cerveau unique essayant de gérer
00:01:24des processus complexes dans une fenêtre de contexte limitée. C'était particulièrement agaçant sur les gros projets
00:01:30car il perdait souvent le fil, et nous devions créer des flux de travail avec des notes structurées
00:01:34pour limiter ces pertes de contexte. Maintenant, nous avons remarqué qu'avec Claude,
00:01:39nous n'avons plus besoin de compacter aussi souvent qu'avant. Ce que nous faisions manuellement avec
00:01:44des notes dans Claude.md ou d'autres fichiers de guidage est désormais intégré nativement. Les agents
00:01:50ne partagent pas une fenêtre de contexte unique. Chaque agent possède en fait sa propre fenêtre de contexte. Comme mentionné
00:01:55plus tôt, vous interagissez avec le Claude principal, qui agit comme coordinateur de tâches. Ce coordinateur crée un
00:02:00graphe de tâches qui identifie et décompose le travail en unités plus petites. Il détermine ensuite le type de
00:02:06chaque tâche : soit séquentielle, signifiant que la tâche précédente doit être terminée avant de commencer
00:02:10la suivante, soit non séquentielle ou parallèle, ce qui permet de les lancer simultanément sans dépendances.
00:02:15Chaque tâche suit un flux complet (investigation, planification, mise en œuvre), chaque étape
00:02:20étant conditionnée par la précédente. Une fois le graphe créé, le système déploie des agents et délègue
00:02:26différents modèles à chaque tâche selon sa complexité. Certaines tâches, comme l'exploration de dossiers, n'ont pas besoin
00:02:32du raisonnement poussé d'Opus 4.5 et peuvent être gérées par les modèles Haiku ou Sonnet. Chaque agent reçoit une fenêtre de contexte
00:02:38neuve de 200k tokens, isolée des autres processus. C'est une rupture avec l'ancien fonctionnement de Claude
00:02:43qui reposait sur un contexte unique, source de problèmes. Avec ce système, chaque agent
00:02:48peut se concentrer sur une seule chose. Vous avez probablement remarqué que nous construisons beaucoup de choses dans ces vidéos.
00:02:53Tous les prompts, le code, les modèles... tout ce que vous devriez normalement copier sur l'écran en faisant pause,
00:02:58tout est disponible dans notre communauté. Pour cette vidéo et toutes les précédentes. Liens en description.
00:03:02C'était l'explication détaillée du nouveau système de tâches, et au début, la différence peut sembler subtile.
00:03:08Auparavant, il inscrivait les tâches dans la fenêtre de contexte, et une fois celle-ci pleine,
00:03:13il devait compacter, ce qui finissait par mélanger les listes de choses à faire. Désormais, les tâches ne sont plus
00:03:18uniquement dans le contexte. Un nouveau dossier de tâches a été ajouté dans le répertoire principal .claude, avec
00:03:23un sous-dossier par session, identifié par son ID. À l'intérieur de chaque dossier, on trouve un ensemble
00:03:29de documents JSON représentant les tâches du système. Ces fichiers JSON sont identifiés par leur ID et
00:03:34contiennent un nom, une description et un statut. Les deux clés essentielles sont “blocks” et “blocked by”.
00:03:41La clé “blocks” liste les tâches bloquées par la tâche actuelle, tandis que “blocked by” contient celles
00:03:46qui bloquent la tâche en cours ; une fois exécutées, cette dernière peut démarrer. Cette configuration
00:03:51garantit le bon ordre d'exécution en créant un graphe de dépendances clair.
00:03:56Concrètement, cela guide Claude pour qu'il ne puisse pas sauter une étape tant que la tâche requise
00:04:01n'est pas terminée. Sans ce graphe, vous auriez dû tout réexpliquer à Claude après chaque commande
00:04:06de nettoyage, mais ce n'est plus nécessaire. Cette logique a été externalisée
00:04:11dans une structure de fichiers, permettant au système de conserver son état même à la fin de la session,
00:04:16peu importe quand vous y revenez. Ainsi, Claude n'a pas à chercher quelles
00:04:20tâches il doit recommencer. Le graphe n'oublie rien et ne dévie pas de son objectif. Les noms de dossiers sont
00:04:26actuellement des IDs aléatoires, mais si vous configurez une variable d'environnement avec un nom personnalisé,
00:04:31il identifiera la session par ce nom. Cela garantit que les tâches ne sont pas perdues, même en fermant
00:04:36votre terminal, et Claude peut reprendre la session sans couture. Avec cette mise à jour, Anthropic a enfin
00:04:41supprimé la boucle Ralph, qui servait initialement à ré-ancrer le système de tâches. Désormais, Claude
00:04:45gère cela automatiquement. Par ailleurs, si vous appréciez notre contenu, n'hésitez pas à cliquer sur le bouton
00:04:50hype, car cela nous aide à produire plus de vidéos de ce type et à toucher plus de monde. Maintenant, cette
00:04:55approche est cruciale car elle donne à Claude une liberté de parallélisation en gérant efficacement
00:05:01les étapes simultanées et séquentielles. Claude identifie tout ce qui peut tourner en parallèle
00:05:06et ce qui ne le peut pas, ce qui lui permet de gagner un temps précieux. Par exemple,
00:05:11s'il voit que la tâche 1 et la tâche 2 n'ont pas de dépendances, il lance les deux à la fois. Au niveau suivant,
00:05:16il identifie que les tâches 3 et 4 sont bloquées par la tâche 1, et attend donc la fin de celle-ci avant
00:05:22de lancer les suivantes. De cette façon, l'ensemble se termine en seulement trois cycles. Auparavant,
00:05:27ces 5 étapes auraient nécessité 5 vagues successives, chacune attendant la précédente.
00:05:32Cette approche réduit considérablement le temps d'exécution grâce au travail simultané. Cela ne fait pas
00:05:38que gagner du temps, cela réduit aussi les coûts, car le modèle adapte son effort aux tâches et ne gaspille pas
00:05:42de tokens inutiles sur les petites missions. Mais avant de voir cela en action, voici un mot de notre sponsor,
00:05:47Lovart. En voyant ces designs, on croirait qu'ils sortent d'une agence pro, mais il s'agit du premier
00:05:52agent de design IA doté d'une véritable intuition créative. Le design devient simple avec Lovart car il vous aide à
00:05:57visualiser n'importe quel concept instantanément. Des packagings complexes aux agencements d'intérieur
00:06:02en passant par des collections de bijoux, c'est l'agent qui livre un travail créatif professionnel.
00:06:07Sa véritable puissance réside dans ses fonctions d'édition exclusives. Généralement, le texte généré par l'IA est illisible,
00:06:12mais avec TextEdit, je peux réécrire des titres parfaitement simplement en tapant. Avec Lovart AI,
00:06:17vous générez des affiches superbes et utilisez l'édition d'éléments pour déplacer, ajuster ou échanger
00:06:22des calques individuels, ou l'édition par touche pour modifier des objets précisément sans casser le style. Cela vous
00:06:27permet de produire beaucoup plus de posts de haute qualité sans effort supplémentaire. Vous pouvez même transformer
00:06:32un visuel statique en vidéo en un clic. Commencez à créer gratuitement via le lien en commentaire épinglé.
00:06:38Notre équipe a testé cet essaim d'agents dans plusieurs scénarios sur Claude Code et Co-Work.
00:06:42Pour ceux qui ne connaissent pas, Co-Work est essentiellement Claude Code, mais pour les non-développeurs.
00:06:47L'idée vient du fait que lors du développement initial de Claude Code, il était réservé aux développeurs.
00:06:52Mais ils ont réalisé qu'il pouvait être utile pour presque tout. Co-Work possède plus de garde-fous
00:06:57car il ne cible pas les experts. Cela évite que l'agent ne supprime ou ne modifie accidentellement
00:07:02quelque chose de sensible, ce qui le rend beaucoup plus accessible aux utilisateurs non techniques.
00:07:07Notre équipe l'utilise aussi pour des tâches hors développement comme la recherche, la planification et même la gestion
00:07:13de nos idées de vidéos en le connectant à Notion. Anthropic a donc simplifié l'outil et sorti
00:07:18Co-Work, qui fait pratiquement tout ce que fait Claude Code : interagir avec le système de fichiers et modifier des documents.
00:07:23Co-Work est très efficace pour organiser des dossiers ou y apporter des modifications.
00:07:28Nous l'avons beaucoup utilisé dans ce but. Nous avions un dossier rempli de projets,
00:07:32surtout pour des tests, et nous avions du mal à retrouver une compétence spécifique utilisée auparavant.
00:07:37Nous lui avons donc demandé de créer un document détaillant le contenu de chaque projet.
00:07:42Nous lui avons aussi demandé d'analyser le fichier Claude.md et les commandes réutilisables pour faire le tri.
00:07:47Il a commencé par explorer le dossier connecté et a créé des listes de tâches. Ensuite, il a utilisé
00:07:52la même méthode d'essaim d'agents que pour Claude Code. Il a déployé
00:07:58plusieurs agents pour lire les fichiers par lots et documenter le contenu de chaque projet.
00:08:03Au final, chaque projet avait son fichier résumé, ce qui a rendu la navigation et la recherche
00:08:08beaucoup plus simples. Nous avons aussi utilisé Co-Work pour une étude de marché et de faisabilité
00:08:13pour une application, et il a produit un document complet avec toutes les conclusions. Tout comme
00:08:18Claude Code, il a posé des questions et, sur la base des réponses, a généré un rapport détaillé.
00:08:23Il a sauvegardé le rapport dans le dossier connecté. On pourrait faire la même chose avec Claude
00:08:27Chat, mais ici, il a un accès direct aux documents du dossier, ce qui permet de guider
00:08:32la recherche bien plus efficacement. Le rapport généré était parfaitement mis en forme car Co-Work
00:08:37possède des compétences spécialisées pour la création de documents. Une fois l'étude et le PRD
00:08:42terminés avec Co-Work, nous sommes passés sur Claude Code pour la phase d'implémentation concrète.
00:08:48Nous avons demandé à Claude Code d'analyser le document du dossier, celui qui servait de guide à Co-Work
00:08:53pour l'idée du projet, et de le décomposer en différents composants en se focalisant sur un aspect du PRD.
00:08:57Il a analysé que le PRD contenait plusieurs sections et a réalisé qu'elles pouvaient être
00:09:03traitées en parallèle car elles étaient indépendantes. Il a donc lancé plusieurs
00:09:08agents pour travailler sur l'écriture simultanément, chaque agent agissant de façon autonome.
00:09:13Sans cette parallélisation, il aurait fallu 16 étapes séquentielles, réduites ici à une seule,
00:09:18ce qui a considérablement accéléré le processus. Désormais, Claude décompose les tâches complexes
00:09:23automatiquement, mais parfois il ne le fait pas s'il juge que la demande ne le nécessite pas.
00:09:28Si c'est le cas, vous pouvez lui demander : “décompose ceci en tâches avec dépendances”.
00:09:34Il créera alors le graphe de dépendances et l'utilisera pour gérer le flux. Vous pouvez
00:09:38même visualiser les tâches en faisant Ctrl+T. Comme c'était un projet de longue durée, nous avons nommé
00:09:44la session via le flag CLI pour pouvoir y revenir plus tard. Voilà qui conclut cette vidéo.
00:09:49Si vous souhaitez soutenir la chaîne et nous aider à continuer, vous pouvez rejoindre
00:09:53AI Labs Pro. Comme toujours, merci d'avoir regardé, et à la prochaine !