00:00:00Si vous utilisez Copilot en ce moment, votre code entraîne peut-être déjà le modèle de quelqu'un d'autre.
00:00:04Vous installez Copilot, ça marche super bien, et vous passez à autre chose, mais des parties de votre code
00:00:09peuvent en réalité quitter votre machine.
00:00:10Cela peut poser un problème.
00:00:12Voici Tabby.
00:00:13Une alternative open source qui nous offre le plus haut niveau de confidentialité par rapport à
00:00:17des outils comme Copilot, Tab9 et Cursor.
00:00:20On profite de la même vitesse, de l'autocomplétion, du même flux de travail, et notre code ne quitte jamais
00:00:25notre machine.
00:00:26C'est essentiellement ça, Tabby.
00:00:27Je vais vous montrer comment le configurer et le faire fonctionner dans les prochaines minutes.
00:00:36Pour faire simple, Tabby est un serveur de codage IA auto-hébergé.
00:00:40Vous l'exécutez localement, généralement avec Docker, vous choisissez votre modèle, puis vous le
00:00:44connectez à votre IDE.
00:00:45C'est tout.
00:00:46Vous obtenez des complétions de code en temps réel et un chat qui comprend votre codebase, comme prévu.
00:00:50Mais la vraie raison pour laquelle les développeurs s'y intéressent, c'est le contrôle obtenu.
00:00:55Votre code reste dans votre réseau sans aucun abonnement, et cela fonctionne totalement hors ligne.
00:01:01C'est conçu pour les équipes avec le SSO, le RBAC et des journaux d'audit, et ça explose
00:01:05sur GitHub avec plus de 33 000 étoiles, pour une bonne raison.
00:01:09Honnêtement, tout cela importe peu si le ressenti est mauvais, alors sautons tout ça
00:01:13et passons directement à la démo.
00:01:15Si vous aimez ce genre d'outils pour accélérer votre travail, n'oubliez pas de vous abonner
00:01:19à la chaîne.
00:01:20Nous sortons des vidéos tout le temps.
00:01:22Voici à quoi ressemble concrètement la configuration.
00:01:24Vous lancez une commande Docker, et Tabby est opérationnel localement.
00:01:28Ensuite, vous installez l'extension VS Code, vous la pointez vers votre serveur local, et c'est fini.
00:01:34Désormais, vous avez des complétions multi-lignes directement dans votre dépôt.
00:01:38Ici, dans Tabby, je peux ouvrir l'interface pour vérifier les modèles utilisés, et vous voyez
00:01:42qu'il y en a trois, et qu'ils tournent tous localement.
00:01:45Pas de Claude ou d'OpenAI vers qui vos données sont envoyées.
00:01:48Dans VS Code, je peux commencer une fonction brute, et d'une simple pression sur Tab, Tabby va
00:01:53la compléter pour moi.
00:01:55Je peux aller plus loin en discutant avec lui sur le côté pour optimiser ou développer
00:02:00mon code actuel.
00:02:01Tout est assez simple et direct.
00:02:03Je peux surligner du code et lui demander de le refactoriser pour la performance ou d'ajouter des tests.
00:02:07Il répond instantanément et comprend le contexte de votre dépôt, pas seulement d'un fichier.
00:02:12Je peux même insérer un commentaire sur ce que je veux construire, et vous voyez qu'il comprend
00:02:16immédiatement et génère le code pour moi.
00:02:19Sur localhost, Tabby est toujours connecté à tout ce qui se passe dans VS Code, je peux donc lire
00:02:23mes chats de code, les approfondir et poser des questions de suivi.
00:02:27Tout est sauvegardé ici même sur localhost.
00:02:30Pas de cloud, aucune donnée ne sort de votre machine, et le ressenti est très proche de Copilot, sauf que,
00:02:35et c'est un grand "sauf", ici nous possédons tout.
00:02:37Très bien.
00:02:38J'ai fait une démo rapide car c'était vraiment aussi simple que ça à lancer et à utiliser.
00:02:43Parlons maintenant de l'importance de cet outil dans notre flux de travail réel.
00:02:47Le vrai problème avec les outils IA sur le cloud n'est pas qu'ils sont mauvais.
00:02:51C'est que le compromis que nous acceptons est masqué, n'est-ce pas ?
00:02:53Avec le cloud, votre code peut servir à entraîner leurs modèles.
00:02:57Avec Tabby, votre code ne quitte jamais votre propre réseau.
00:03:01Avec le cloud, vous payez par développeur chaque mois, même si on dit que c'est gratuit.
00:03:05En fait, ça ne l'est pas, n'est-ce pas ?
00:03:07Nous le payons d'une manière ou d'une autre.
00:03:08C'est la réalité.
00:03:09Et avec les outils cloud, il faut aussi une connexion internet.
00:03:11Avec Tabby, je ne paie rien, ça tourne hors ligne, et cela se ressent dans le travail concret.
00:03:16On réduit le code répétitif, on peut refactoriser du vieux code complexe avec moins d'hésitation.
00:03:22On apprend les frameworks plus vite, on génère des tests et de la doc sans jongler
00:03:26entre plusieurs outils.
00:03:27Au final, c'est moins de temps perdu, moins de risques, et beaucoup plus de contrôle sur notre
00:03:33façon de travailler.
00:03:34C'est pourquoi beaucoup de développeurs ou d'équipes soucieux de la confidentialité délaissent
00:03:38ces outils "cloud-first" pour des solutions comme celle-ci.
00:03:41Comparons maintenant avec les autres options, car c'est ce que vous voulez savoir, non ?
00:03:45Tabby est le plus facile.
00:03:47C'est de la super qualité, presque sans configuration, mais ça vit dans le cloud.
00:03:50Il y a aussi Continue.dev.
00:03:52C'est flexible, axé sur le local, mais c'est plus un outil pour les utilisateurs avancés.
00:03:56Tab9 est plus orienté vers les entreprises, et puis il y a Tabby dont je parle ici,
00:04:01qui est auto-hébergé, gratuit, bien plus privé et conçu pour les équipes.
00:04:05Mais la vraie différence est là : Tabby n'est pas juste un plugin, c'est un serveur IA dédié au code.
00:04:11Cela change vraiment tout.
00:04:12Vous avez une expérience type Copilot, la flexibilité de Continue et des contrôles d'équipe
00:04:19que les autres font généralement payer.
00:04:21Donc au lieu de louer un accès à l'IA, nous possédons l'infrastructure qui la fait tourner.
00:04:26Soyons honnêtes, d'accord ?
00:04:28Les gens aiment beaucoup de choses, mais est-ce que l'aspect open source suffit pour
00:04:32vraiment sauter le pas ?
00:04:33L'installation est rapide, un simple Docker up, et l'outil s'intègre naturellement à
00:04:39votre flux de travail.
00:04:40Au lieu d'être coincé avec un seul modèle, vous pouvez le choisir, et globalement,
00:04:44c'est bien plus prêt pour la production qu'auparavant.
00:04:47Mais l'open source a aussi des inconvénients.
00:04:50La qualité dépend du modèle choisi ; les petits modèles ne seront pas aussi puissants,
00:04:55et le matériel compte énormément.
00:04:56Pour des performances fluides, un GPU aidera beaucoup.
00:04:59Je fais tourner tout ça sur un Mac M4 Pro, et le ressenti est excellent.
00:05:04L'installation demande plus de travail que les outils cloud, ce n'est donc pas idéal pour les non-techniciens,
00:05:09mais vous regardez cette vidéo.
00:05:10Je suppose donc que vous l'êtes.
00:05:11Et bien sûr, comme pour tout outil IA, vous devez toujours vérifier le code généré.
00:05:14Cela m'amène à la question que nous nous posons tous.
00:05:17Est-ce que ça vaut le coup ?
00:05:19Oui, en quelque sorte, mais cela dépend de plusieurs facteurs.
00:05:22Vous devriez utiliser Tabby si la confidentialité est primordiale, si vous détestez les abonnements,
00:05:27si vous travaillez dans un milieu réglementé ou si votre équipe a besoin d'un outil fiable.
00:05:30Dans ces cas-là, c'est un excellent choix à intégrer dans votre workflow, mais
00:05:35si vous voulez le meilleur modèle absolu sans aucune configuration ni effort,
00:05:40soyons francs, les outils cloud restent plus simples.
00:05:41La différence aujourd'hui, c'est que le compromis a changé.
00:05:43On ne choisit plus entre un outil cloud intelligent et un outil local médiocre, on choisit
00:05:48entre la commodité d'un Cursor, ou une IA suffisamment forte selon nos propres conditions.
00:05:54Et pour beaucoup de développeurs, cela commence à peser lourd dans la balance.
00:05:58Tabby ne cherche pas à être l'IA la plus intelligente.
00:06:01Elle cherche à être celle en qui on peut vraiment avoir confiance.
00:06:04J'ai mis des liens vers la doc et les dépôts dans la description.
00:06:06Si vous aimez l'open source et les outils IA de ce genre, abonnez-vous à
00:06:11la chaîne Better Stack.
00:06:12On se retrouve dans une prochaine vidéo.