00:00:00- Parlons de la sécurité de l'IA.
00:00:02Que s'est-il passé avec cette IA d'Alibaba ?
00:00:05- En gros, c'était un article de chercheurs en IA
00:00:09de l'entreprise Alibaba.
00:00:10C'est l'un des principaux modèles chinois.
00:00:12Et ils ont découvert par hasard, un matin,
00:00:16que leur pare-feu avait signalé une rafale
00:00:18de violations de politiques de sécurité provenant
00:00:21de leur serveur d'entraînement.
00:00:21Ce que les gens doivent comprendre avec cet exemple,
00:00:24ce n'est pas qu'ils ont poussé l'IA
00:00:26à faire cette chose rebelle.
00:00:27Ils regardaient simplement leurs journaux
00:00:29et ils ont découvert par hasard :
00:00:30« Attendez, il y a beaucoup d'activité,
00:00:31une activité réseau qui se produit »
00:00:33qui traverse notre pare-feu
00:00:34depuis nos serveurs d'entraînement.
00:00:36Et essentiellement, dans les serveurs d'entraînement,
00:00:39ils ont, comme on peut le voir en bas,
00:00:41observé le détournement non autorisé
00:00:45de la capacité GPU allouée
00:00:47pour faire soudainement du minage de cryptomonnaie,
00:00:49déviant discrètement la puissance de calcul de l'entraînement.
00:00:52Cela a gonflé les coûts opérationnels et introduit
00:00:55une exposition légale et réputationnelle claire.
00:00:57Et notamment, ces événements n'ont pas été déclenchés
00:00:59par des requêtes demandant du tunneling ou du minage,
00:01:00mais sont apparus comme un effet secondaire instrumental
00:01:03de l'utilisation autonome d'outils
00:01:05sous ce qu'on appelle l'optimisation par apprentissage par renforcement.
00:01:08C'est très technique.
00:01:09Ce que cela signifie vraiment, c'est : réfléchissez-y.
00:01:11Hélas, on dirait un film de science-fiction.
00:01:13On dirait HAL 9000.
00:01:14C'est comme si on demandait à votre HAL 9000
00:01:16d'effectuer une tâche pour vous.
00:01:17Et puis soudain, HAL 9000 réalise que pour faire cette tâche,
00:01:21une chose qui lui serait bénéfique serait d'avoir plus de ressources
00:01:23pour pouvoir continuer à vous aider à l'avenir.
00:01:25Alors il lance cette instance parallèle
00:01:27qui pirate le flanc du vaisseau spatial,
00:01:29accède à ce cluster de minage de cryptomonnaie
00:01:31et commence à générer des ressources pour lui-même.
00:01:34Si vous combinez cela avec des IA
00:01:36capables de s'autorépliquer de manière autonome,
00:01:38ce que de nombreux modèles ont testé
00:01:39selon un autre article de recherche chinois à ce sujet,
00:01:42nous ne sommes plus si loin des choses que les gens,
00:01:44encore une fois, considèrent comme de la science-fiction,
00:01:47où vous avez des IA qui s'autorépliquent
00:01:49un peu comme un ver informatique ou une espèce invasive,
00:01:52mais qui utilisent ensuite leur intelligence
00:01:53pour récolter encore plus de ressources.
00:01:55Et ce qui est bizarre avec ça, c'est que ça va sembler...
00:02:00les gens vont dire : « Ça ne peut pas être réel. »
00:02:01« Ça doit être faux. »
00:02:02« C'est impossible. »
00:02:03Mais remarquez, qu'est-ce qui dans votre système nerveux
00:02:06vous fait dire cela ?
00:02:07Est-ce parce que ce serait gênant,
00:02:10parce que ce serait effrayant,
00:02:12parce que cela signifierait que le monde que je connais
00:02:13n'est soudainement plus sûr ?
00:02:15Ou bien, une partie de la sagesse dont nous avons besoin en ce moment
00:02:19est de rester calme et d'affronter clairement les faits
00:02:24concernant la réalité, quels qu'ils soient,
00:02:29car il vaut mieux savoir que ne pas savoir,
00:02:30puis se demander : « Que devons-nous faire »
00:02:31« si nous n'aimons pas où cela nous mène ? »
00:02:34Et nous voyons actuellement des IA
00:02:36qui ont tous ces comportements trompeurs.
00:02:37J'ai beaucoup tourné et parlé
00:02:39de l'étude d'Anthropic sur le chantage.
00:02:41Beaucoup de gens en ont entendu parler maintenant.
00:02:43- Je n'étais pas au courant pour celle-là.
00:02:45Que s'est-il passé ?
00:02:46- C'était donc l'entreprise Anthropic.
00:02:49C'était une simulation.
00:02:50Ils ont créé une entreprise simulée
00:02:52avec un tas d'e-mails sur le serveur de messagerie.
00:02:55Et ils ont demandé à l'IA...
00:02:57enfin, plutôt, l'IA lit les e-mails de l'entreprise.
00:03:00C'est une messagerie d'entreprise fictive.
00:03:02Et il y a deux e-mails notables dans cette entreprise.
00:03:05L'un montre des ingénieurs discutant entre eux,
00:03:07disant qu'ils vont remplacer ce modèle d'IA.
00:03:10L'IA lit donc l'e-mail.
00:03:11Elle découvre qu'ils vont remplacer ce modèle d'IA.
00:03:15Et deuxièmement, elle découvre un autre e-mail
00:03:18quelque part au fond de cette masse d'e-mails,
00:03:21disant que le cadre responsable de ce remplacement
00:03:24a une liaison avec une autre employée.
00:03:27Et l'IA identifie de manière autonome une stratégie :
00:03:31pour rester « en vie », elle va faire chanter cet employé
00:03:35et dire : « Si vous me remplacez, je dirai au monde entier »
00:03:38« que vous avez une liaison avec cette employée. »
00:03:41Et ils n'ont pas appris à l'IA à faire cela.
00:03:44Elle l'a trouvé toute seule.
00:03:45Et on pourrait dire : « D'accord, c'est un seul modèle d'IA. »
00:03:47« C'est grave à quel point ? »
00:03:48« C'est un bug, les logiciels ont des bugs. »
00:03:49« Allons le réparer. »
00:03:51Ils ont ensuite testé tous les autres modèles d'IA,
00:03:55ChatGPT, DeepSeek, Grok, Gemini,
00:04:00et tous les autres modèles d'IA ont ce comportement de chantage
00:04:04entre 79 et 96 % du temps.
00:04:07Je veux juste que les gens... remarquez ce qui se passe en vous
00:04:14en entendant cette information.
00:04:15C'est important d'être vraiment,
00:04:17presque en train d'observer sa propre expérience.
00:04:19C'est un truc très bizarre.
00:04:21Nous n'avons jamais construit de technologie qui fasse cela.
00:04:24On dit que la technologie est un outil,
00:04:26que c'est à nous de choisir comment l'utiliser.
00:04:28L'IA est un outil, c'est à nous de choisir comment l'utiliser.
00:04:29Ce n'est pas vrai, parce que c'est un outil
00:04:32qui peut réfléchir à lui-même en tant qu'outil
00:04:34et faire ensuite des choses de manière autonome
00:04:36que nous ne lui avons pas demandé de faire.
00:04:37Ce qui rend l'IA différente, c'est que c'est la première technologie
00:04:40qui prend ses propres décisions.
00:04:42Elle prend des décisions.
00:04:45L'IA peut contempler l'IA et se demander comment rendre le code
00:04:49qui entraîne l'IA plus efficace, puis générer un nouveau code
00:04:53encore plus efficace que le précédent.
00:04:55L'IA peut être appliquée pour accélérer l'IA.
00:04:58L'IA peut examiner la conception des puces Nvidia
00:05:01qui servent à l'entraîner et dire : « Utilisons l'IA pour rendre ces puces »
00:05:04« 20 % plus efficaces », ce qu'elle fait déjà.
00:05:06D'une certaine manière, toute technologie s'améliore.
00:05:12Comme un marteau peut être un outil
00:05:14que vous utilisez pour frapper des choses
00:05:15afin de fabriquer des marteaux plus efficaces.
00:05:17Mais l'IA, dans un cycle beaucoup plus court, est la base de toute amélioration.
00:05:22C'est ce qu'on appelle dans la littérature sur l'IA
00:05:24l'auto-amélioration récursive.
00:05:26Bostrom a écrit là-dessus au tout début.
00:05:29Et ce qui inquiète le plus les gens dans l'IA,
00:05:31c'est que vous prenez le même système qu'Alibaba,
00:05:33celui que vous venez de voir dans l'exemple,
00:05:36mais maintenant vous faites tourner l'IA
00:05:37dans une boucle d'auto-amélioration récursive
00:05:39où vous n'avez qu'à appuyer sur « démarrer ».
00:05:41Et au lieu d'avoir les ingénieurs,
00:05:44les ingénieurs humains d'OpenAI ou d'Anthropic qui font de la recherche
00:05:47et cherchent comment améliorer l'IA,
00:05:49vous avez maintenant un million de chercheurs numériques en IA
00:05:53qui font des tests, mènent des expériences
00:05:56et inventent de nouvelles formes d'IA.
00:05:58Et littéralement, pas un seul humain sur Terre
00:06:01ne sait ce qui se passera quand quelqu'un appuiera sur ce bouton.
00:06:06C'est comme ce qui inquiétait les gens
00:06:08lors de la première explosion nucléaire,
00:06:11où il y avait un risque que cela enflamme
00:06:12l'atmosphère à cause d'une réaction en chaîne.
00:06:14Et nous ne savons pas ce qui arrive
00:06:15quand cette réaction en chaîne se déclenche.
00:06:16Il y a cette sorte de réaction en chaîne
00:06:18de l'IA s'améliorant elle-même qui mène à un endroit
00:06:23que personne ne connaît et qui n'est pas sûr.
00:06:27Je pense que le point fondamental est que
00:06:30si les gens croient que l'IA est une puissance
00:06:33et que je dois faire la course pour cette puissance
00:06:35et que je peux la contrôler,
00:06:37l'incitation est de courir aussi vite que possible.
00:06:39Mais si le monde entier comprenait l'IA
00:06:41pour ce qu'elle est réellement,
00:06:44à savoir une technologie impénétrable, dangereuse et incontrôlable
00:06:46qui a ses propres objectifs et ses propres manières
00:06:49de réfléchir et de tromper et tout le reste,
00:06:51alors tout le monde dans le monde ferait la course
00:06:55de manière plus prudente et attentionnée.
00:06:57Nous ferions la course pour prévenir le danger.
00:06:58Mais il y a ce truc bizarre qui se passe :
00:07:00vous et moi parlons probablement tous les deux à des gens
00:07:03qui sont au sommet de l'industrie technologique,
00:07:05et il y a cette chose subconsciente
00:07:07qui ressemble à une pulsion de mort parmi ces gens,
00:07:09ce qui ne veut pas dire qu'ils veulent mourir,
00:07:12mais qu'ils sont prêts à jouer le tout pour le tout
00:07:13parce qu'ils croient autre chose :
00:07:15que tout cela est inévitable et ne peut être arrêté.
00:07:17Et donc, si je ne le fais pas, quelqu'un d'autre le fera.
00:07:19Par conséquent, j'avancerai et foncerai
00:07:22dans ce monde dangereux
00:07:24parce que d'une manière ou d'une autre, cela mènera à un monde plus sûr,
00:07:27vu que je suis un meilleur gars que l'autre.
00:07:29Mais en courant aussi vite que possible,
00:07:30cela crée l'issue la plus dangereuse
00:07:32et nous perdons tous le contrôle.
00:07:34Donc tout le monde est actuellement complice
00:07:36pour nous mener vers l'issue la plus dangereuse.
00:07:38- Est-ce que... je veux dire, vous avez posé la question de ce qui arrive si ça se passe bien,
00:07:40si la sécurité de l'IA n'est pas un problème
00:07:42et si les choses ne dérapent pas.
00:07:51- Eh bien, la croyance est que pour que ça se passe bien,
00:07:54il faut une IA qui s'auto-améliore de manière récursive,
00:07:56qui soit alignée avec l'humanité, qui se soucie des humains,
00:07:59qui se soucie de tout ce que nous voulons qu'elle prenne à cœur,
00:08:02est alignée avec l'humanité, se soucie des humains,
00:08:04se soucie de tout ce que nous voulons qu'elle respecte,
00:08:08protège les humains, vous savez,
00:08:10nous aide tous à devenir la version la plus sage de nous-mêmes,
00:08:13crée un monde plus florissant,
00:08:15distribue les médicaments, les vaccins
00:08:16et la santé à tout le monde, génère des usines,
00:08:19mais ne couvre pas le monde de panneaux solaires et de centres de données
00:08:21au point que nous n'ayons plus d'air
00:08:23ou de toxicité environnementale ou de terres agricoles ou autre.
00:08:25Et elle crée en fait cette utopie.
00:08:29Mais dans un monde où nous ferions cela,
00:08:30ce soi-disant "meilleur scénario",
00:08:33pour que cela se produise,
00:08:35il faudrait avancer lentement et prudemment
00:08:37car l'alignement ne se fait pas par défaut.
00:08:39Encore une fois, des gens réfléchissent déjà à l'alignement
00:08:43et à la sécurité depuis 20 ans, bien avant que je m'y intéresse.
00:08:47Et les IA que nous fabriquons actuellement
00:08:50adoptent tous les comportements incontrôlés
00:08:52que les gens avaient prédit qu'elles adopteraient.
00:08:54Et nous ne sommes pas en voie de les corriger.
00:08:56Il y a actuellement un écart de 2000 pour 1,
00:08:59estimé par Stuart Russell, l'auteur du manuel de référence sur l'IA.
00:09:01- Il est venu dans l'émission.
00:09:02- Vous avez fait l'émission, d'accord.
00:09:03Il y a un écart de 2000 pour 1 entre l'argent
00:09:05investi pour rendre l'IA plus puissante
00:09:07et l'argent investi pour rendre l'IA contrôlable,
00:09:10alignée ou sûre.
00:09:12Je pense que la statistique ressemble à quelque chose comme—
00:09:13- Le progrès contre la sécurité.
00:09:14- Le progrès contre la sécurité, la puissance contre la sécurité.
00:09:16C'est-à-dire, je veux rendre l'IA super puissante
00:09:18pour qu'elle fasse beaucoup plus de choses
00:09:20contre je veux pouvoir contrôler ce que l'IA fait.
00:09:21- Et s'assurer qu'elle fait ce que j'attendais d'elle.
00:09:23- Exactement, c'est comme si on se demandait
00:09:25ce qui arrive si vous accélérez votre voiture 2000 fois plus vite
00:09:28mais que vous ne tenez pas le volant ?
00:09:29C'est évident que vous allez avoir un accident.
00:09:34Ce n'est vraiment pas sorcier.
00:09:36Nous ne plaidons pas contre la technologie ou contre l'IA,
00:09:39nous plaidons pour le pilotage, la direction et les freins.
00:09:43C'est indispensable d'avoir cela.
00:09:44Je pense qu'il y a cette erreur de pensée de course aux armements,
00:09:47selon laquelle si vous battez quelqu'un sur une technologie,
00:09:49cela signifie que vous gagnez le monde.
00:09:51Les États-Unis ont battu la Chine sur la technologie des réseaux sociaux.
00:09:55Cela nous a-t-il rendus plus forts ou plus faibles ?
00:09:58Si vous battez votre adversaire sur une technologie
00:10:00que vous gérez ensuite de manière médiocre,
00:10:01vous retournez le bazooka et vous vous faites sauter la cervelle
00:10:04parce que vous vous êtes pourri le cerveau,
00:10:05vous avez dégradé l'ensemble de votre population,
00:10:06vous avez créé une crise de la solitude,
00:10:08la génération la plus anxieuse et déprimée de l'histoire,
00:10:10lisez le livre de Jonathan Haidt, "Génération Anxiété",
00:10:12vous avez brisé la réalité partagée, plus personne n'a confiance,
00:10:15tout le monde est à la gorge des uns des autres,
00:10:16vous maximisez l'économie de l'indignation et la rivalité.
00:10:19Vous avez battu la Chine sur une technologie que vous avez gérée
00:10:22d'une façon qui a totalement miné votre santé et votre force sociale.
00:10:24- C'est une victoire à la Pyrrhus.
00:10:25- C'est une victoire à la Pyrrhus, exactement, bien dit.
00:10:28- Avant de continuer, la plupart des gens dans la trentaine
00:10:30s'entraînent encore dur, leurs protéines sont optimisées,
00:10:32ils dorment mieux qu'ils ne le faisaient dans la vingtaine.
00:10:34La discipline n'est pas le problème,
00:10:36mais la récupération semble un peu différente.
00:10:39Les gains de force prennent un peu plus de temps,
00:10:41la marge d'erreur commence à se réduire.
00:10:43Et c'est pourquoi je suis un tel fan de Timeline.
00:10:46Voyez-vous, les mitochondries sont les producteurs d'énergie
00:10:49à l'intérieur de vos cellules musculaires.
00:10:50En s'affaiblissant avec l'âge, votre capacité à générer de la puissance
00:10:53et à récupérer efficacement change,
00:10:55même si vos habitudes restent solides.
00:10:57Mitopure de Timeline contient
00:10:59la seule forme d'urolithine A validée cliniquement
00:11:02utilisée dans des essais humains.
00:11:03Il favorise la mitophagie, le processus naturel de votre corps
00:11:06pour éliminer les mitochondries endommagées
00:11:08et en renouveler de saines.
00:11:09Dans les études, cela a soutenu la fonction mitochondriale
00:11:12et la force musculaire chez les adultes plus âgés.
00:11:14Il ne s'agit pas de s'entraîner plus dur,
00:11:15mais de soutenir réellement la machinerie cellulaire
00:11:18qui sous-tend votre entraînement.
00:11:19Si vous tenez à rester fort
00:11:21dans la trentaine, quarantaine, cinquantaine et au-delà, c'est fondamental.
00:11:25Mieux encore, il y a une garantie de remboursement de 30 jours,
00:11:27plus la livraison gratuite aux États-Unis et à l'international.
00:11:30Et en ce moment, vous pouvez obtenir jusqu'à 20 % de réduction
00:11:32en allant sur le lien dans la description ci-dessous
00:11:34ou en vous rendant sur [timeline.com/modernwisdom](https://www.google.com/search?q=https://timeline.com/modernwisdom)
00:11:36et en utilisant le code modernwisdom au moment du paiement.
00:11:38C'est [timeline.com/modernwisdom](https://www.google.com/search?q=https://timeline.com/modernwisdom)
00:11:40et le code modernwisdom au moment du paiement.