Transcript

00:00:00OpenClaw rejoint OpenAI et Peter Steinberger, le créateur d'OpenClaw,
00:00:05rejoint OpenAI. Je pense que c'est intéressant pour un développeur pour plusieurs
00:00:12raisons. Cela nous en dit long sur la direction que prend OpenAI et cela a
00:00:17quelques implications intéressantes, je dirais. Dans un article sur son blog,
00:00:25Peter mentionne que sa prochaine mission est de bâtir un agent utilisable par sa mère.
00:00:32Parce qu'actuellement avec OpenClaw, il faut encore un certain niveau
00:00:38de connaissances techniques ou d'expertise pour l'installer et l'utiliser.
00:00:45Et je dirais que c'est une bonne chose, car comme je l'ai dit dans une vidéo
00:00:53il y a peu, OpenClaw peut être dangereux ou présenter de graves failles de sécurité,
00:01:00que beaucoup de gens, même techniques, ne voient pas ou ignorent simplement.
00:01:06Ou alors, ils n'en tirent pas autant de profit qu'ils le disent. Ce qui est
00:01:12tout à fait possible, car c'est internet en 2026. Bref, j'ai donné mon avis
00:01:19sur OpenClaw dans cette vidéo, mais j'y reviendrai. Cette mission d'avoir un agent
00:01:27IA accessible à tous, en supposant que sa mère n'est pas une développeuse de génie,
00:01:34est évidemment l'objectif de toutes les entreprises d'IA comme OpenAI et Thoughtbreak.
00:01:41C'est bien d'avoir des développeurs comme clients avec des outils comme Cloud Code,
00:01:47Codex et autres, mais le marché global est bien plus vaste. Le but ultime
00:01:56de ces sociétés est d'arriver au point où les agents IA font tout et où l'on peut,
00:02:04en gros, remplacer les humains. D'abord dans le numérique, puis partout avec la robotique.
00:02:11Je ne vais pas m'étendre sur le fait de savoir si cela arrivera bientôt.
00:02:18J'ai déjà partagé mon opinion là-dessus. Je ne vois même pas les développeurs
00:02:27être remplacés de sitôt, encore moins les humains en général. Et je ne pense pas
00:02:35que ce soit un bon objectif. Mais c'est une autre histoire. Ce qui est intéressant,
00:02:42c'est que Sam Altman a déclaré qu'avec l'arrivée de Peter Steinberger chez OpenAI,
00:02:48ils s'attendent à ce qu'OpenClaw devienne rapidement central dans leurs offres.
00:02:54Donc un agent IA comme OpenClaw. Il mentionne aussi qu'OpenClaw restera
00:03:01un projet open source au sein d'une fondation, qu'OpenAI continuera de soutenir.
00:03:09L'avenir sera extrêmement multi-agents, et il est important pour eux de soutenir
00:03:16l'open source dans ce cadre. Ce que je lis entre les lignes de cette déclaration,
00:03:22c'est qu'OpenAI va construire sa propre offre agentique sur la base d'OpenClaw,
00:03:29ou en utilisant les leçons apprises et une partie de son code. OpenClaw restera
00:03:34certes open source et ils le soutiendront... peut-être autant qu'ils restent
00:03:44eux-mêmes “open”. Je ne sais pas. Mais ils vont certainement créer un agent
00:03:50basé sur tout ce qu'ils ont appris d'OpenClaw, qui lui, ne sera probablement
00:03:58pas ouvert, mais sera une offre payante. Ce qui est logique d'un point de vue business.
00:04:08Dans ma vidéo, j'exprimais des inquiétudes sur la sécurité d'OpenClaw.
00:04:16Mes plus grandes craintes ne concernent pas les vulnérabilités du code, qui peuvent
00:04:25être corrigées avec le temps, surtout avec une entreprise comme OpenAI en renfort.
00:04:31Ce n'est pas mon souci majeur. Ce qui m'inquiétait et m'inquiète toujours
00:04:37avec OpenClaw, ce sont les injections de prompts. C'est ma préoccupation numéro un
00:04:44avec tous ces agents. Et c'est un problème fondamental des modèles de langage.
00:04:50Les agents de code sont de super assistants. Mais ils font beaucoup d'erreurs
00:04:58et doivent être guidés. Quand on me dit qu'ils peuvent déjà écrire des logiciels
00:05:04de bout en bout, j'ai hâte de voir ces logiciels, car ce n'est pas ce que j'ai constaté.
00:05:10En revanche, entre les mains d'un développeur compétent, ces agents de codage
00:05:16apportent un gain de productivité significatif. C'est mon expérience avec eux.
00:05:22Mais attention, ils sont loin de remplacer les développeurs. Le codage est,
00:05:30dans un sens, la tâche idéale pour ces modèles LLM car c'est du texte en entrée
00:05:37et du texte en sortie. Une grande partie du contexte pertinent se trouve directement
00:05:44dans la base de code pour que le modèle puisse le voir et l'utiliser.
00:05:51C'est une différence énorme par rapport à beaucoup d'autres tâches,
00:05:58même dans le monde numérique. Mais qu'il s'agisse d'agents de code ou d'agents
00:06:05comme OpenClaw, l'injection de prompt reste un problème majeur.
00:06:13Une injection de prompt peut être subtile ou inattendue. Bien sûr, vous écrivez
00:06:18les prompts avec OpenClaw ou les agents de code, mais dès que votre agent
00:06:24visite un site web ou, dans le cas d'OpenClaw, lit un e-mail, tout ce texte
00:06:32qu'il traite est injecté dans un nouveau prompt. C'est un vecteur d'attaque direct.
00:06:39L'avantage des agents de code, c'est qu'on devrait les isoler dans un sandbox,
00:06:45et surtout, ils n'ont pas un accès large à vos e-mails ou à toute votre vie numérique.
00:06:49En tant que développeur, vous devez surveiller ce que fait votre agent.
00:06:57Vous devez généralement autoriser ou refuser ses actions. Il vous demande
00:07:03constamment s'il a le droit de faire ceci ou cela. On peut certes le lancer
00:07:09en mode “dangereux”. S'il est dans un sandbox, vous êtes peut-être à l'abri
00:07:14d'un effacement de disque dur, mais vous entrez tout de même en terrain risqué
00:07:19vis-à-vis des injections de prompts si vous ne vérifiez jamais ce qu'il fait.
00:07:24Pourtant, la différence majeure avec OpenClaw est que l'agent de code
00:07:30n'a pas accès à l'intégralité de votre vie numérique. L'idée d'OpenClaw,
00:07:35évidemment, est d'avoir cet agent que même la mère de Peter peut utiliser.
00:07:42Le concept est d'avoir un agent qui fait tout pour vous. Vous lui demandez :
00:07:48“Vérifie mes e-mails et prépare des réponses.” Il lui faut donc l'accès à votre compte.
00:07:54S'il a accès à votre compte, il peut envoyer des e-mails. Et je ne parle pas
00:08:02seulement d'envoyer des insultes, ce qui serait déjà grave, mais d'exfiltrer des données.
00:08:10Car il peut aussi explorer votre système, collecter des infos et les envoyer
00:08:14par mail à un acteur malveillant suite à une injection de prompt, par exemple.
00:08:20C'est le gros problème de sécurité que je soulignais et qui, malheureusement,
00:08:25persiste. Et c'est là le point crucial : cela persistera même avec OpenAI derrière le projet.
00:08:33Peut-on résoudre cela ? D'après ma compréhension des modèles de langage,
00:08:39ce n'est pas possible par leur nature même, sauf via un concept ancien :
00:08:45le “zero trust”. L'idée est de faire tourner l'agent dans un environnement
00:08:55où l'on ne fait confiance à aucune action et où l'on restreint ses capacités,
00:09:03en accordant explicitement chaque permission. Pour l'envoi d'e-mails,
00:09:10il faudrait qu'il demande l'autorisation pour chaque message et qu'un humain
00:09:20valide ou refuse la requête. Bien sûr, un tel environnement, ultra-restrictif,
00:09:27ne colle pas vraiment avec la vision d'un agent génial qui s'occupe de tout
00:09:35pendant que vous dormez tranquillement. C'est pourquoi je ne crois pas
00:09:42à cet avenir agentique immédiat, mais on verra ce qu'OpenAI pourra faire.
00:09:48Peut-être qu'ils ne se soucieront pas trop de la sécurité, mais ils y seront
00:09:55probablement contraints car leurs clients payants n'apprécieront guère
00:10:03que leurs données s'évaporent. Pour faire court, je reste très sceptique,
00:10:09même si je vois l'attrait d'agents comme OpenClaw. Avoir un assistant 24h/24
00:10:14pour gérer les tâches numériques semble séduisant, et c'est une direction possible.
00:10:20Mais même si je n'ai pas d'usage concret pour l'instant car je refuse de donner

Key Takeaway

L'intégration d'OpenClaw chez OpenAI marque une étape vers des agents IA grand public, mais soulève des défis de sécurité critiques, notamment l'injection de prompts, qui freinent encore l'automatisation totale.

Highlights

L'acquisition d'OpenClaw par OpenAI et l'arrivée de son créateur Peter Steinberger.

L'objectif de créer un agent IA ultra-accessible

Timeline

OpenClaw rejoint OpenAI : Une nouvelle direction

L'annonce du recrutement de Peter Steinberger par OpenAI signale un pivot stratégique vers le développement d'agents autonomes. L'objectif affiché par Steinberger est de rendre ces outils accessibles à des utilisateurs non techniques, comme sa propre mère. Actuellement, OpenClaw nécessite une expertise technique pour être installé et configuré correctement. L'auteur souligne que cette barrière à l'entrée protège paradoxalement les utilisateurs de failles de sécurité souvent ignorées. Cette transition vers le grand public est le moteur principal des entreprises du secteur en 2026.

La vision de l'automatisation totale et le marché de l'IA

Les géants de l'IA comme OpenAI et Anthropic visent un marché bien plus vaste que celui des simples développeurs. Leur but ultime est de créer des agents capables de remplacer les humains dans les tâches numériques, puis physiques via la robotique. Sam Altman prévoit que la technologie d'OpenClaw devienne centrale dans les offres d'OpenAI tout en restant open source au sein d'une fondation. Cependant, l'auteur reste sceptique sur le remplacement imminent des développeurs ou des humains en général. Il prédit qu'OpenAI développera une version propriétaire et payante basée sur les acquis d'OpenClaw.

Les dangers critiques de l'injection de prompts

Malgré le soutien d'OpenAI pour corriger les vulnérabilités du code, le problème fondamental de l'injection de prompts demeure. L'auteur explique que les modèles de langage sont intrinsèquement vulnérables à cette technique de manipulation. Si les agents de code sont d'excellents assistants pour les développeurs compétents, ils font encore trop d'erreurs pour travailler en autonomie totale. Le codage est une tâche idéale pour les LLM car les entrées et sorties sont textuelles et le contexte est limité à la base de code. En revanche, les agents généralistes manipulent des données provenant de sources externes non fiables.

Accès aux données privées et vecteurs d'attaque

Le danger s'intensifie lorsqu'un agent IA comme OpenClaw accède à des e-mails ou à la navigation web pour l'utilisateur. Chaque texte lu par l'agent devient un vecteur potentiel d'attaque par injection, pouvant mener à l'exfiltration de données privées. Contrairement aux agents de code isolés dans des "sandboxes", OpenClaw est conçu pour s'intégrer totalement à la vie numérique. Un acteur malveillant pourrait ainsi envoyer un e-mail piégé forçant l'IA à renvoyer des informations sensibles. L'auteur insiste sur le fait que même avec les ressources d'OpenAI, ce risque structurel est difficile à éliminer.

Le dilemme du Zero Trust et l'avenir des agents

Pour sécuriser réellement ces outils, il faudrait adopter une approche "zero trust" où chaque action de l'IA est validée par un humain. Cependant, cette surveillance constante contredit la promesse d'un agent autonome qui travaille pendant que l'utilisateur dort. L'auteur conclut qu'un environnement ultra-restrictif rendrait l'outil moins séduisant mais reste la seule option viable contre les fuites de données. OpenAI sera probablement contraint de privilégier la sécurité pour satisfaire ses clients payants exigeants. Malgré l'attrait d'un assistant disponible 24h/24, le scepticisme prévaut face aux risques de confidentialité.

Community Posts

View all posts