Transcript

00:00:00OpenClaw se une a OpenAI y Peter Steinberger, el creador de OpenClaw,
00:00:05se incorpora a OpenAI. Creo que esto es interesante desde la perspectiva del desarrollador por varias
00:00:12razones. Nos dice algo sobre el rumbo de OpenAI y tiene un par de implicaciones
00:00:17interesantes, diría yo. En una publicación que Peter compartió en su sitio web, menciona que su próxima
00:00:25misión es construir un agente que hasta su madre pueda usar. Porque, por supuesto, con OpenClaw ahora mismo,
00:00:32todavía se necesita un cierto nivel de conocimiento técnico o experiencia para configurarlo
00:00:38y usarlo. Y yo diría que eso es bueno, porque como también argumenté en un vídeo hace unos
00:00:45días o semanas, OpenClaw puede ser peligroso o tiene serios problemas de seguridad, que mucha
00:00:53gente, incluso con experiencia técnica, o no entiende o simplemente ignora. O no están haciendo
00:01:00tantas cosas útiles con OpenClaw como dicen. Lo cual es absolutamente posible porque,
00:01:06ya saben, es internet y estamos en 2026. En fin, compartí mi opinión sobre OpenClaw en aquel vídeo,
00:01:12pero volveré a ello de vez en cuando. Esta misión de tener un agente de IA que sea utilizable
00:01:19por todo el mundo, asumiendo que su madre no sea una desarrolladora experta, es obviamente lo que todas las
00:01:27compañías de IA, OpenAI y Thoughtbreak, están persiguiendo. Porque tenernos a los desarrolladores
00:01:34como clientes con herramientas como Cloud Code, Codex y demás, que están muy bien, es genial, pero el
00:01:41mercado ahí fuera es mucho mayor. Y, por supuesto, el objetivo final de estas empresas es llegar a un punto
00:01:47donde los agentes de IA lo hagan todo y, bueno, básicamente podamos reemplazar a los humanos. Primero en el espacio digital
00:01:56y luego con robótica en todas partes. Ahora bien, no entraré en si eso sucederá pronto. Creo
00:02:04que ya he compartido mi opinión sobre esto en muchos vídeos. No veo a los desarrolladores siendo reemplazados
00:02:11a corto plazo, y mucho menos a los humanos en general. Y tampoco creo que sea un buen objetivo. Pero bueno,
00:02:18esa es otra historia. Lo interesante aquí, sin embargo, es que Sam Altman comentó que con
00:02:27Peter Steinberger uniéndose a OpenAI, al final esperan que este OpenClaw se convierta pronto en el núcleo
00:02:35de su oferta de productos. Es decir, un agente de IA como OpenClaw. También menciona que OpenClaw
00:02:42vivirá en una fundación como proyecto de código abierto, así que seguirá siendo open source y OpenAI continuará
00:02:48respaldándolo. El futuro va a ser extremadamente multi-agente, por lo que es importante apoyar
00:02:54el código abierto como parte de eso. Lo que leo de esa declaración de forma bastante clara es que OpenAI
00:03:01construirá su propia oferta de agentes sobre OpenClaw o utilizando parte de los aprendizajes o incluso partes de la
00:03:09base de código de OpenClaw. Así que OpenClaw seguirá siendo de código abierto y seguirán apoyándolo,
00:03:16quizás igual que seguirán siendo “abiertos”. No lo sé. Pero definitivamente también construirán
00:03:22un agente basado en todo lo aprendido con OpenClaw, el cual tengo entendido que muy probablemente no será
00:03:29abierto, sino que será una oferta de pago, lo cual tiene todo el sentido desde un punto de vista empresarial.
00:03:34Ahora bien, en mi vídeo, compartí algunas preocupaciones sobre la seguridad relacionada con OpenClaw. Y mis mayores
00:03:44preocupaciones no son por vulnerabilidades en el código, que por supuesto pueden solucionarse con el tiempo
00:03:50y donde tener a una empresa del tamaño de OpenAI detrás puede ayudar mucho. Esa no es mi
00:03:58mayor preocupación. Lo que más me preocupa de OpenClaw era y sigue siendo la inyección de prompts.
00:04:08Esa es mi preocupación número uno con todos estos agentes. Y ese es un problema fundamental con los modelos de lenguaje.
00:04:16Los agentes de programación son geniales. Grandes asistentes. Pero se equivocan en muchas cosas. Necesitan guía. Y
00:04:25siempre que escucho a gente decirme que ya pueden escribir software de principio a fin, tengo ganas de
00:04:31ver todo ese software, porque esa no ha sido mi experiencia. Pero en manos de un
00:04:37desarrollador capaz, esos agentes de programación pueden, de hecho, suponer un aumento significativo de la productividad.
00:04:44Esa es mi experiencia con ellos. Eso es lo que pienso de los agentes de programación. Pero ojo, están muy lejos
00:04:50de reemplazar a los desarrolladores. Y, por supuesto, programar es, hasta cierto punto, la mejor tarea para estos modelos de IA
00:04:58y modelos de lenguaje porque es entrada de texto, salida de texto. Y gran parte del contexto relevante, no todo,
00:05:04pero gran parte está ahí mismo en el código para que el modelo lo vea y lo use.
00:05:10Y eso, por supuesto, es una diferencia enorme comparado con muchas otras tareas en el mundo digital también.
00:05:16Pero independientemente de si hablamos de agentes de programación o de agentes como OpenClaw, las inyecciones de prompts
00:05:22son un problema mayor. Ahora bien, una inyección de prompt puede ser sutil o inesperada. Por supuesto,
00:05:30podrías decir que tú escribes los prompts con OpenClaw o con los agentes de programación, pero en cuanto
00:05:37tu agente de programación visita un sitio web o, en el caso de OpenClaw, lee un correo electrónico, todo eso,
00:05:44todo ese texto que procesa se convierte en un nuevo prompt. Y ahí mismo tienes un vector de ataque para
00:05:51inyecciones de prompts. Con los agentes de programación, la ventaja es que, primero, deberías ejecutarlos en un entorno seguro,
00:05:58y segundo, normalmente no tienen un acceso amplio a tu cuenta de correo ni a toda tu
00:06:05vida digital. Y tú, como desarrollador, deberías estar prestando atención a lo que hace tu agente.
00:06:13Normalmente tienes que conceder o denegar permisos. Te pregunta todo el tiempo si
00:06:18tiene permiso para hacer esto o aquello. Y, por supuesto, puedes ejecutarlo en algún modo peligroso. Y si lo pones
00:06:24en un entorno aislado (sandbox), podrías estar lo suficientemente a salvo como para que no borre tu disco duro, pero
00:06:32estás entrando en un terreno peligroso de todos modos con las inyecciones de prompts si no
00:06:39estás revisando para nada lo que hace tu agente de programación. Aun así, la gran diferencia respecto a
00:06:45OpenClaw es que el agente de programación no tiene acceso a toda tu vida digital. Ahora,
00:06:49la idea con OpenClaw, por supuesto, es tener ese agente que incluso la madre de Peter pueda usar. Y claro,
00:06:57la idea es que tengas un agente que pueda hacer cualquier cosa por ti. Solo le escribes: “Oye,
00:07:03por favor, revisa mis correos y redacta algunas respuestas”. Para eso necesita acceso a tu cuenta de correo.
00:07:09Si tiene acceso a tu cuenta de correo, podría enviar mensajes. Y no hablo de enviar
00:07:14correos donde quizás empiece a insultar a la gente, que ya sería bastante malo, sino que podría exfiltrar
00:07:19datos porque, adivina qué, también puede recopilar información. Puede recorrer tu sistema, reunir datos
00:07:24y enviarlos por correo a algún actor malicioso debido a una inyección de prompt, por ejemplo.
00:07:30Ese es el gran problema de seguridad que veo, el cual compartí en este vídeo y que, por supuesto,
00:07:35persiste. Y esa es la parte importante: persistirá incluso con OpenAI detrás del proyecto.
00:07:42Ahora, ¿es algo que se pueda solucionar? Según entiendo, por cómo funcionan los modelos de lenguaje,
00:07:48no en general, sino solo con un concepto que tenemos desde hace tiempo,
00:07:54que se llama “confianza cero” (zero trust). La idea es ejecutar tu agente en un entorno donde
00:08:02no confíes en ninguna de sus acciones, restrinjas lo que puede hacer y tengas que conceder
00:08:10permisos explícitamente para ciertas cosas que quieras permitirle. Por ejemplo, en lo que respecta a
00:08:14enviar correos electrónicos, podrías configurar un entorno donde tenga que preguntarte por cada
00:08:20mensaje que quiera enviar, y tú como humano debas validarlo y luego aprobar o denegar la
00:08:25solicitud. Por supuesto, un entorno así, que es súper restrictivo y te pregunta todo el tiempo
00:08:33si quieres conceder un determinado permiso o no, no encaja realmente con esa filosofía
00:08:39de tener un agente increíble que pueda hacerlo todo por ti mientras tú duermes plácidamente.
00:08:45Y por eso no veo ese futuro de agentes ahora mismo, quizás no pronto,
00:08:55pero veremos qué puede hacer OpenAI al respecto. También puede que simplemente no les importe demasiado la
00:09:03seguridad, aunque probablemente tengan que hacerlo porque sus clientes de pago seguramente no
00:09:10estarán muy contentos si se filtran sus datos. En resumen, sigo siendo súper escéptico aunque veo
00:09:20el atractivo de agentes como OpenClaw. Tener ese asistente servicial 24/7 que te ayude con
00:09:27temas digitales suena bastante bien y definitivamente veo que es un futuro hacia el que podríamos
00:09:35dirigirnos. Y aunque todavía no tengo casos de uso donde me resultara súper útil porque no
00:09:42quiero darle esos permisos tan amplios e incluso dándoselos no estoy seguro de si tendría tantos
00:09:48casos de uso, aun con todo eso en mente, entiendo perfectamente por qué OpenAI está tan interesada en este proyecto.
00:09:55Sin embargo, también podría significar que OpenClaw vaya desapareciendo con el tiempo; el entusiasmo podría
00:10:03apagarse relativamente pronto, también por la imagen de OpenAI y, por supuesto, porque según leo,
00:10:09esto suena mucho a la típica declaración corporativa donde dicen “sí, sí, vamos a
00:10:14apoyar esto” y luego, en algún momento, dejan de hacerlo, no les importa, construyen
00:10:20su propio producto y entonces supongo que veremos qué tan bueno o malo es ese producto.

Key Takeaway

La integración de OpenClaw en OpenAI busca democratizar los agentes de IA, pero enfrenta desafíos críticos de seguridad como la inyección de prompts que podrían comprometer la privacidad total del usuario.

Highlights

Peter Steinberger

Timeline

Anuncio de la unión de OpenClaw y OpenAI

El video comienza informando que Peter Steinberger, el creador de OpenClaw, se ha incorporado oficialmente al equipo de OpenAI. La misión declarada de Steinberger es construir un agente de inteligencia artificial que sea tan sencillo que "hasta su madre pueda usarlo". Actualmente, herramientas como OpenClaw requieren un nivel técnico que limita su adopción masiva fuera de la comunidad de desarrolladores. El autor argumenta que este movimiento responde al deseo de las grandes empresas de IA de expandir su mercado más allá de los programadores hacia el público general. Este cambio de enfoque sugiere una transición hacia agentes digitales que eventualmente podrían realizar tareas humanas complejas de manera autónoma.

El futuro de OpenClaw como código abierto

En este segmento se discute la postura de Sam Altman sobre el futuro del proyecto y su relación con el ecosistema de OpenAI. Altman asegura que OpenClaw vivirá en una fundación y seguirá siendo de código abierto, recibiendo el respaldo continuo de su empresa. El analista interpreta que OpenAI utilizará el aprendizaje y el código de OpenClaw para construir su propia oferta comercial de agentes de pago. Se menciona que el futuro tecnológico será inevitablemente "multi-agente", lo que justifica el apoyo estratégico al software libre en esta etapa. No obstante, el autor expresa dudas sobre si el compromiso de OpenAI con la apertura se mantendrá firme a largo plazo tras lanzar sus productos propios.

Riesgos de seguridad e inyección de prompts

El autor profundiza en sus preocupaciones sobre la seguridad, señalando que las vulnerabilidades del código son menos alarmantes que el problema fundamental de la inyección de prompts. Este fallo es inherente a los modelos de lenguaje actuales y permite que instrucciones maliciosas ocultas manipulen el comportamiento del agente. Se hace una distinción entre los agentes de programación, que suelen operar en entornos controlados, y los agentes generales que interactúan con el mundo exterior. El riesgo aumenta drásticamente cuando el agente comienza a leer correos electrónicos o visitar sitios web de terceros sin supervisión humana constante. La entrada de texto externa puede convertirse accidentalmente en un nuevo comando que el modelo ejecuta sin cuestionar su origen.

Acceso a la vida digital y el dilema del permiso

Esta sección analiza el peligro de otorgar a un agente de IA acceso total a la vida digital del usuario, como cuentas de correo o sistemas de archivos. Si un agente lee un correo con una inyección de prompt maliciosa, podría ser engañado para exfiltrar datos privados a un tercero bajo control de un atacante. El autor subraya que este problema persistirá independientemente de que OpenAI respalde el proyecto, ya que es una limitación técnica de los LLM. Para que un agente sea realmente útil, necesita autonomía, pero esa misma autonomía es la que abre la puerta a desastres de privacidad. La capacidad de recopilar y enviar información sensible convierte al asistente en un potencial vector de ataque altamente eficiente.

Confianza cero y escepticismo final

Para concluir, el analista explora el concepto de "Zero Trust" como el único marco de seguridad posible para el despliegue de agentes. Bajo este esquema, el usuario debe validar y aprobar explícitamente cada acción crítica, como enviar un mensaje o borrar un archivo. Sin embargo, se advierte que un sistema que pide permiso constantemente contradice la promesa de una automatización invisible y sin fricciones. El autor mantiene una postura escéptica sobre la viabilidad inmediata de estos asistentes 24/7 debido a este conflicto entre usabilidad y protección. Finalmente, especula que el interés por OpenClaw como proyecto independiente podría desvanecerse a medida que OpenAI priorice su propia línea de productos cerrados.

Community Posts

View all posts