Vercel acaba de revelar la mayor ventaja de Claude Code

AAI LABS
Computing/SoftwareSmall Business/StartupsAdult EducationInternet Technology

Transcript

00:00:00Desde que los modelos empezaron a ser potentes, mucha gente ha comenzado a crear productos geniales,
00:00:04integrándolos para resolver muchísimos de nuestros problemas. Pero estos sistemas consumen una gran
00:00:09cantidad de tokens, especialmente si integras un modelo mediante una API. La solución a esto es mucho
00:00:15más sencilla de lo que crees. La mejor arquitectura no es un pipeline extremo ni un ajuste a gran escala,
00:00:20sino una vieja filosofía que sirve de base a los sistemas Unix: que todo es un archivo.
00:00:25Sé que no se referían al coste de los modelos, sino a dispositivos y archivos. Pero,
00:00:30curiosamente, la solución a este problema de altos costes se basa exactamente en el mismo principio.
00:00:35Y de esto es de lo que habla un ingeniero de software de Vercel. Antes de ver por qué los archivos son la solución,
00:00:41entendamos algunos puntos sobre cómo funcionan realmente estos modelos. Los modelos han sido entrenados
00:00:46con cantidades masivas de código. Por eso se les da tan bien entender el código,
00:00:50las estructuras de directorios y los scripts nativos de bash que los desarrolladores usan para navegar por archivos.
00:00:56Cuando un agente usa grep y ls, no hace nada nuevo. Simplemente hace algo que ya
00:01:01sabe hacer, solo que de forma más controlada. Este enfoque no se limita al código; los agentes pueden
00:01:06navegar por cualquier directorio, contenga código o no, porque ya están familiarizados
00:01:11con los comandos y entienden los sistemas de archivos. Cuando un agente necesita algo, busca en el
00:01:17sistema de archivos usando comandos nativos de bash como ls y find. Una vez que localiza el archivo exacto,
00:01:23busca el contenido relevante dentro de él mediante coincidencias de patrones con grep y cat.
00:01:27Solo se envía al modelo un pequeño fragmento relevante, mientras que el resto se queda fuera de la memoria,
00:01:32manteniendo limpia la ventana de contexto. Así no desperdiciamos tokens en datos irrelevantes
00:01:36que el modelo no necesita. Con este enfoque, el agente devuelve una salida estructurada.
00:01:41Este patrón funciona tan bien que Vercel acabó lanzando una herramienta de bash de código abierto diseñada
00:01:46específicamente para esto, permitiendo a los agentes explorar sistemas de archivos como lo haría un desarrollador.
00:01:51Al crear sistemas con modelos de lenguaje de gran tamaño, hay dos formas de proporcionar la información adecuada
00:01:56al modelo: mediante un prompt de sistema detallado, esperando que el agente realmente lo siga,
00:02:00o alimentando una base de datos vectorial con muchos datos y usando búsqueda semántica para extraerlos.
00:02:06Pero cada enfoque tiene limitaciones. Los prompts de sistema tienen una ventana de tokens limitada,
00:02:10lo que restringe la información que podemos enviar. Para manejar conjuntos de datos más grandes, usamos la búsqueda semántica,
00:02:15que encuentra información basándose en el significado de la consulta. Pero la búsqueda vectorial se usa para
00:02:20similitud semántica más que para búsquedas exactas. Devuelve fragmentos de datos que coinciden con el contexto
00:02:25general, no necesariamente el valor específico que buscamos. Esto deja la tarea de extraer el contenido correcto en manos del modelo.
00:02:30Los sistemas de archivos, sin embargo, ofrecen un enfoque distinto. En ellos, la estructura se mapea
00:02:35directamente a tu dominio. A menudo hay relaciones entre archivos en la estructura de carpetas
00:02:40que reflejan las relaciones entre las carpetas padre. Con los sistemas de archivos,
00:02:45no hace falta aplanar estas relaciones en fragmentos vectoriales comprensibles para el modelo,
00:02:49lo que ayuda a evitar la pérdida de relaciones que suele ocurrir en la búsqueda semántica. Estas conexiones
00:02:54jerárquicas se preservan de forma natural, manteniendo la lógica organizativa que ya existe en tus datos.
00:02:59Otra ventaja es que la recuperación es precisa porque las herramientas de bash y grep devuelven coincidencias
00:03:05exactas, a diferencia de la búsqueda vectorial, que devuelve fragmentos similares y deja que el modelo
00:03:10decida cuál usar. Obtienes solo el valor requerido. El contexto es mínimo
00:03:15cuando los agentes usan herramientas de bash porque reciben solo el fragmento específico, y el resto
00:03:20no entra en memoria. Esto les permite mantenerse centrados en la pieza exacta de información
00:03:25sin perderse en datos que no vienen al caso. Esta idea no es algo que te resulte extraño.
00:03:30Ya se ha utilizado en Claude Code y en todos los agentes de CLI, donde usan funciones de bash para
00:03:36acotar hallazgos mediante la coincidencia de patrones. Nosotros ya hemos estado usando el sistema de archivos
00:03:41y las capacidades de Claude Code para investigar cualquier idea que evaluamos. Normalmente pasamos
00:03:46la herramienta de software por este pipeline, que consta de varias fases con nuestros propios
00:03:51criterios de evaluación. Todo esto se define en un archivo Markdown que contiene los requisitos
00:03:56y objetivos de la herramienta, cómo redactar el documento final y la información necesaria para cada fase.
00:04:01También le proporcionamos a Claude ciertos documentos como muestras, que sirven de guía de estilo,
00:04:06y el documento final se guarda en una carpeta de resultados de investigación. Para guiar el proceso,
00:04:11tenemos un archivo Claude.md que explica cómo pasar la idea por cada fase, una por una,
00:04:17para obtener un documento de investigación que cumpla con todos nuestros controles.
00:04:22Siempre que tengo algo que investigar, simplemente voy a Claude y le planteo la idea o la herramienta.
00:04:27Luego la pasa por un proceso de validación de seis fases, primero entendiendo la idea
00:04:32y luego avanzando fase por fase. Una vez que la idea ha superado todas las etapas,
00:04:37Claude genera un informe final que podemos leer para verificar si la idea tiene potencial o no.
00:04:42Este enfoque basado en archivos nos ahorra mucho tiempo al automatizar un proceso que de otro modo haríamos paso a paso.
00:04:47Si quieres probar este pipeline para tu propio caso de uso, puedes obtener una plantilla lista para usar
00:04:52y crear tu propio proceso de investigación similar al nuestro en nuestra nueva comunidad, AI Labs Pro.
00:04:57Para este y todos los videos anteriores, tienes plantillas, prompts y todos los comandos y habilidades
00:05:03listos para integrar directamente en tus proyectos. Si te gusta lo que hacemos y quieres apoyar al canal,
00:05:08esta es la mejor manera de hacerlo. Tienes los enlaces en la descripción. Estaba revisando su caso de estudio,
00:05:12en el que explicaban cómo construir un agente de resúmenes de ventas usando esta arquitectura.
00:05:17También lo han hecho de código abierto, pero me dio una idea muy interesante que quería probar por mi cuenta.
00:05:22Estaba trabajando en un proyecto de políticas de empresa donde tenía muchos datos en formato
00:05:27JSON, Markdown y TXT, todos separados por departamentos. Normalmente, habría implementado
00:05:32este sistema usando una base de datos vectorial como Chroma, pero decidí darle una oportunidad a esta herramienta.
00:05:39Así que implementé esta arquitectura. En el backend, incluí la ruta a la carpeta de documentos
00:05:44con los datos de la empresa y le di al agente acceso a los comandos ls, cat, grep y find,
00:05:49junto con una guía sobre cómo usar la herramienta y cuándo emplear cada comando. Usé el modelo
00:05:55Gemini 2.5 Flash, le proporcioné la herramienta de bash de Vercel y le indiqué la ruta de los documentos.
00:06:01Y así, cuando probé al agente haciéndole cualquier pregunta relacionada con los datos, básicamente
00:06:06respondió basándose en el contenido exacto de las políticas de la empresa, incluyendo manuales
00:06:11y documentos de políticas de vacaciones. Para verificar cómo funcionaba, registré el uso de herramientas en la terminal.
00:06:16El agente primero usó el comando ls para ver qué documentos había disponibles y luego usó grep con
00:06:21coincidencia de patrones para buscar "días libres" o términos similares. Este conjunto de comandos gestionó
00:06:27nuestra consulta y nos dio resultados con el mismo nivel de precisión que un sistema RAG.
00:06:32Si quieres el código fuente de este proyecto, puedes encontrarlo en nuestra comunidad para descargarlo y probarlo.
00:06:38Ahora bien, la primera pregunta que me vino a la mente al revisar esta herramienta fue:
00:06:43¿es realmente seguro equipar a los agentes para que ejecuten comandos en el servidor?
00:06:47En diciembre vimos una vulnerabilidad en los React Server Components que obtuvo una puntuación de 10.0,
00:06:52la más alta, y consistía en la ejecución de código en el servidor. Así que es una capacidad muy potente
00:06:57y potencialmente peligrosa para un agente. ¿Por qué confié entonces en esta herramienta? Porque se ejecuta
00:07:03en un entorno aislado (sandbox). Solo accede al directorio específico que le proporcionamos y no
00:07:08modifica nada más. En el artículo también mencionaban que el agente explora los archivos sin
00:07:14acceso al sistema de producción, por lo que tu código de producción está a salvo aunque el agente intente
00:07:19ejecutar comandos dañinos. Ofrece dos tipos de aislamiento. El primero es un entorno en memoria.
00:07:24En esta configuración, usa solo la herramienta bash, que ejecuta scripts solo en los archivos a los que tiene acceso.
00:07:29El segundo tipo es un entorno de sandbox totalmente compatible que ofrece aislamiento completo de máquina virtual
00:07:35usando el sandbox de Vercel. Podemos elegir uno u otro según nuestras necesidades. El enfoque en memoria
00:07:40es más ligero y rápido para casos sencillos, mientras que el aislamiento total por VM es mejor
00:07:46cuando necesitas mayores garantías de seguridad. Aunque este enfoque es muy bueno para ahorrar costes
00:07:51por llamada al modelo, no es el adecuado para todo tipo de problemas. No es ideal si necesitas
00:07:56comparar el significado de las palabras, porque las herramientas de bash buscan coincidencias exactas.
00:08:01Como vimos con nuestro agente, usó palabras clave específicas para localizar los datos. Tampoco es apto
00:08:06para estructuras de archivos desorganizadas donde el agente tendría que luchar con múltiples llamadas a herramientas.
00:08:11Una estructura fácil de navegar para el agente es mucho mejor. Mi sugerencia personal es usar la herramienta bash
00:08:17cuando tengas datos muy estructurados y tus peticiones sean claras. Usa RAG cuando te importe más
00:08:22el significado de lo escrito en los archivos o cuando sea probable que las consultas sean imprecisas.
00:08:27Antes de terminar, unas palabras de nuestro patrocinador: Brilliant. Los mejores ingenieros no solo conocen la sintaxis,
00:08:32sino que desglosan los problemas desde los principios básicos. Por eso nos hemos asociado con Brilliant.
00:08:37Su filosofía es que se aprende mejor haciendo. Priorizan la resolución activa de problemas para que
00:08:42te familiarices con los conceptos en lugar de simplemente memorizarlos. Por ejemplo, en su curso
00:08:47llamado "Cómo funciona la IA", no solo lees, sino que manipulas la lógica real. Podrás practicar con
00:08:52aspectos técnicos como calcular la pérdida en el espacio de pérdida y visualizar la interpolación,
00:08:57desarrollando una intuición profunda que no se consigue solo con una clase en video. A través de sus
00:09:02cursos interactivos, obtienes la forma más efectiva de dominar realmente los conceptos de los que hablamos.
00:09:07También obtendrás un 20% de descuento en la suscripción anual premium, desbloqueando todo su catálogo
00:09:12de cursos de matemáticas, datos e informática. Haz clic en el enlace de la descripción
00:09:17o escanea el código QR en tu pantalla para solicitar tu prueba gratuita de 30 días. Con esto llegamos
00:09:22al final de este video. Si quieres apoyar al canal y ayudarnos a seguir creando contenido como este,
00:09:28puedes hacerlo usando el botón de "Súper gracias" de abajo. Como siempre, gracias por vernos y nos vemos en el próximo.
00:09:32do so by using the super thanks button below. As always, thank you for watching and I'll see you in the next one.

Key Takeaway

La arquitectura basada en el sistema de archivos y comandos Bash de Vercel permite a los agentes de IA operar con mayor precisión y menores costes de tokens al evitar la fragmentación semántica de las bases de datos vectoriales.

Highlights

La filosofía Unix de "todo es un archivo" como solución técnica para reducir el consumo masivo de tokens.

El uso de comandos nativos de Bash (ls

Timeline

La Filosofía Unix aplicada a los LLM

El video comienza abordando el problema del alto consumo de tokens al integrar modelos mediante API. La propuesta innovadora es retomar la filosofía de los sistemas Unix donde todo se trata como un archivo para optimizar costes. Los modelos actuales ya están entrenados con código y comandos Bash, por lo que entienden perfectamente las estructuras de directorios. Al usar herramientas como grep o cat, el agente solo envía fragmentos relevantes al modelo, manteniendo la ventana de contexto limpia. Esto permite que la IA trabaje de forma controlada sin desperdiciar recursos en datos irrelevantes.

Sistemas de Archivos vs. Búsqueda Vectorial

Vercel ha desarrollado una herramienta de Bash de código abierto diseñada para que los agentes exploren sistemas de archivos de forma eficiente. El narrador compara este enfoque con la búsqueda semántica tradicional que utiliza bases de datos vectoriales. Mientras que los vectores buscan similitudes, el sistema de archivos permite búsquedas exactas y preserva las relaciones jerárquicas entre carpetas. Esta estructura evita que se pierda la lógica organizativa de los datos originales durante el proceso de fragmentación. El resultado es una recuperación de información mucho más precisa y con un contexto mínimo necesario para el modelo.

Casos de Uso y Automatización con Claude Code

Se explora cómo esta metodología ya se aplica en herramientas como Claude Code y otros agentes de línea de comandos. El equipo de Vercel utiliza un pipeline de investigación de seis fases definido en archivos Markdown para validar ideas de software. El proceso automatizado guía a Claude a través de requisitos, guías de estilo y controles de calidad hasta generar un informe final. Este enfoque basado en archivos ahorra una cantidad significativa de tiempo al eliminar pasos manuales repetitivos. Además, se menciona la disponibilidad de plantillas y prompts en la comunidad AI Labs Pro para quienes deseen replicar este sistema.

Implementación Práctica y Seguridad del Sandbox

El autor comparte un experimento personal donde implementó esta arquitectura para gestionar políticas de empresa en formatos JSON y Markdown. En lugar de usar una base de datos vectorial como Chroma, utilizó Gemini 2.5 Flash con la herramienta de Bash de Vercel. El agente logró responder preguntas con la misma precisión que un RAG tradicional ejecutando comandos ls y grep en la terminal. Respecto a la seguridad, se explica que el sistema se ejecuta en un entorno de sandbox aislado para prevenir vulnerabilidades. Existen dos modalidades de aislamiento: una en memoria para velocidad y otra mediante máquina virtual para máxima seguridad en entornos de producción.

Cuándo usar cada Arquitectura y Conclusión

El video concluye ofreciendo criterios claros para elegir entre el sistema de archivos y el RAG convencional. La herramienta de Bash es ideal para datos muy estructurados y consultas claras donde se requiere una coincidencia exacta de términos. Por el contrario, el RAG sigue siendo superior cuando el significado semántico es más importante que las palabras clave o cuando los datos están desorganizados. Se incluye una mención al patrocinador Brilliant, destacando su enfoque de aprendizaje interactivo para entender la lógica de la IA. Finalmente, el narrador invita a la audiencia a apoyar el canal mediante las herramientas de la comunidad y el botón de agradecimiento.

Community Posts

View all posts