00:00:00Desde que los modelos empezaron a ser potentes, mucha gente ha comenzado a crear productos geniales,
00:00:04integrándolos para resolver muchísimos de nuestros problemas. Pero estos sistemas consumen una gran
00:00:09cantidad de tokens, especialmente si integras un modelo mediante una API. La solución a esto es mucho
00:00:15más sencilla de lo que crees. La mejor arquitectura no es un pipeline extremo ni un ajuste a gran escala,
00:00:20sino una vieja filosofía que sirve de base a los sistemas Unix: que todo es un archivo.
00:00:25Sé que no se referían al coste de los modelos, sino a dispositivos y archivos. Pero,
00:00:30curiosamente, la solución a este problema de altos costes se basa exactamente en el mismo principio.
00:00:35Y de esto es de lo que habla un ingeniero de software de Vercel. Antes de ver por qué los archivos son la solución,
00:00:41entendamos algunos puntos sobre cómo funcionan realmente estos modelos. Los modelos han sido entrenados
00:00:46con cantidades masivas de código. Por eso se les da tan bien entender el código,
00:00:50las estructuras de directorios y los scripts nativos de bash que los desarrolladores usan para navegar por archivos.
00:00:56Cuando un agente usa grep y ls, no hace nada nuevo. Simplemente hace algo que ya
00:01:01sabe hacer, solo que de forma más controlada. Este enfoque no se limita al código; los agentes pueden
00:01:06navegar por cualquier directorio, contenga código o no, porque ya están familiarizados
00:01:11con los comandos y entienden los sistemas de archivos. Cuando un agente necesita algo, busca en el
00:01:17sistema de archivos usando comandos nativos de bash como ls y find. Una vez que localiza el archivo exacto,
00:01:23busca el contenido relevante dentro de él mediante coincidencias de patrones con grep y cat.
00:01:27Solo se envía al modelo un pequeño fragmento relevante, mientras que el resto se queda fuera de la memoria,
00:01:32manteniendo limpia la ventana de contexto. Así no desperdiciamos tokens en datos irrelevantes
00:01:36que el modelo no necesita. Con este enfoque, el agente devuelve una salida estructurada.
00:01:41Este patrón funciona tan bien que Vercel acabó lanzando una herramienta de bash de código abierto diseñada
00:01:46específicamente para esto, permitiendo a los agentes explorar sistemas de archivos como lo haría un desarrollador.
00:01:51Al crear sistemas con modelos de lenguaje de gran tamaño, hay dos formas de proporcionar la información adecuada
00:01:56al modelo: mediante un prompt de sistema detallado, esperando que el agente realmente lo siga,
00:02:00o alimentando una base de datos vectorial con muchos datos y usando búsqueda semántica para extraerlos.
00:02:06Pero cada enfoque tiene limitaciones. Los prompts de sistema tienen una ventana de tokens limitada,
00:02:10lo que restringe la información que podemos enviar. Para manejar conjuntos de datos más grandes, usamos la búsqueda semántica,
00:02:15que encuentra información basándose en el significado de la consulta. Pero la búsqueda vectorial se usa para
00:02:20similitud semántica más que para búsquedas exactas. Devuelve fragmentos de datos que coinciden con el contexto
00:02:25general, no necesariamente el valor específico que buscamos. Esto deja la tarea de extraer el contenido correcto en manos del modelo.
00:02:30Los sistemas de archivos, sin embargo, ofrecen un enfoque distinto. En ellos, la estructura se mapea
00:02:35directamente a tu dominio. A menudo hay relaciones entre archivos en la estructura de carpetas
00:02:40que reflejan las relaciones entre las carpetas padre. Con los sistemas de archivos,
00:02:45no hace falta aplanar estas relaciones en fragmentos vectoriales comprensibles para el modelo,
00:02:49lo que ayuda a evitar la pérdida de relaciones que suele ocurrir en la búsqueda semántica. Estas conexiones
00:02:54jerárquicas se preservan de forma natural, manteniendo la lógica organizativa que ya existe en tus datos.
00:02:59Otra ventaja es que la recuperación es precisa porque las herramientas de bash y grep devuelven coincidencias
00:03:05exactas, a diferencia de la búsqueda vectorial, que devuelve fragmentos similares y deja que el modelo
00:03:10decida cuál usar. Obtienes solo el valor requerido. El contexto es mínimo
00:03:15cuando los agentes usan herramientas de bash porque reciben solo el fragmento específico, y el resto
00:03:20no entra en memoria. Esto les permite mantenerse centrados en la pieza exacta de información
00:03:25sin perderse en datos que no vienen al caso. Esta idea no es algo que te resulte extraño.
00:03:30Ya se ha utilizado en Claude Code y en todos los agentes de CLI, donde usan funciones de bash para
00:03:36acotar hallazgos mediante la coincidencia de patrones. Nosotros ya hemos estado usando el sistema de archivos
00:03:41y las capacidades de Claude Code para investigar cualquier idea que evaluamos. Normalmente pasamos
00:03:46la herramienta de software por este pipeline, que consta de varias fases con nuestros propios
00:03:51criterios de evaluación. Todo esto se define en un archivo Markdown que contiene los requisitos
00:03:56y objetivos de la herramienta, cómo redactar el documento final y la información necesaria para cada fase.
00:04:01También le proporcionamos a Claude ciertos documentos como muestras, que sirven de guía de estilo,
00:04:06y el documento final se guarda en una carpeta de resultados de investigación. Para guiar el proceso,
00:04:11tenemos un archivo Claude.md que explica cómo pasar la idea por cada fase, una por una,
00:04:17para obtener un documento de investigación que cumpla con todos nuestros controles.
00:04:22Siempre que tengo algo que investigar, simplemente voy a Claude y le planteo la idea o la herramienta.
00:04:27Luego la pasa por un proceso de validación de seis fases, primero entendiendo la idea
00:04:32y luego avanzando fase por fase. Una vez que la idea ha superado todas las etapas,
00:04:37Claude genera un informe final que podemos leer para verificar si la idea tiene potencial o no.
00:04:42Este enfoque basado en archivos nos ahorra mucho tiempo al automatizar un proceso que de otro modo haríamos paso a paso.
00:04:47Si quieres probar este pipeline para tu propio caso de uso, puedes obtener una plantilla lista para usar
00:04:52y crear tu propio proceso de investigación similar al nuestro en nuestra nueva comunidad, AI Labs Pro.
00:04:57Para este y todos los videos anteriores, tienes plantillas, prompts y todos los comandos y habilidades
00:05:03listos para integrar directamente en tus proyectos. Si te gusta lo que hacemos y quieres apoyar al canal,
00:05:08esta es la mejor manera de hacerlo. Tienes los enlaces en la descripción. Estaba revisando su caso de estudio,
00:05:12en el que explicaban cómo construir un agente de resúmenes de ventas usando esta arquitectura.
00:05:17También lo han hecho de código abierto, pero me dio una idea muy interesante que quería probar por mi cuenta.
00:05:22Estaba trabajando en un proyecto de políticas de empresa donde tenía muchos datos en formato
00:05:27JSON, Markdown y TXT, todos separados por departamentos. Normalmente, habría implementado
00:05:32este sistema usando una base de datos vectorial como Chroma, pero decidí darle una oportunidad a esta herramienta.
00:05:39Así que implementé esta arquitectura. En el backend, incluí la ruta a la carpeta de documentos
00:05:44con los datos de la empresa y le di al agente acceso a los comandos ls, cat, grep y find,
00:05:49junto con una guía sobre cómo usar la herramienta y cuándo emplear cada comando. Usé el modelo
00:05:55Gemini 2.5 Flash, le proporcioné la herramienta de bash de Vercel y le indiqué la ruta de los documentos.
00:06:01Y así, cuando probé al agente haciéndole cualquier pregunta relacionada con los datos, básicamente
00:06:06respondió basándose en el contenido exacto de las políticas de la empresa, incluyendo manuales
00:06:11y documentos de políticas de vacaciones. Para verificar cómo funcionaba, registré el uso de herramientas en la terminal.
00:06:16El agente primero usó el comando ls para ver qué documentos había disponibles y luego usó grep con
00:06:21coincidencia de patrones para buscar "días libres" o términos similares. Este conjunto de comandos gestionó
00:06:27nuestra consulta y nos dio resultados con el mismo nivel de precisión que un sistema RAG.
00:06:32Si quieres el código fuente de este proyecto, puedes encontrarlo en nuestra comunidad para descargarlo y probarlo.
00:06:38Ahora bien, la primera pregunta que me vino a la mente al revisar esta herramienta fue:
00:06:43¿es realmente seguro equipar a los agentes para que ejecuten comandos en el servidor?
00:06:47En diciembre vimos una vulnerabilidad en los React Server Components que obtuvo una puntuación de 10.0,
00:06:52la más alta, y consistía en la ejecución de código en el servidor. Así que es una capacidad muy potente
00:06:57y potencialmente peligrosa para un agente. ¿Por qué confié entonces en esta herramienta? Porque se ejecuta
00:07:03en un entorno aislado (sandbox). Solo accede al directorio específico que le proporcionamos y no
00:07:08modifica nada más. En el artículo también mencionaban que el agente explora los archivos sin
00:07:14acceso al sistema de producción, por lo que tu código de producción está a salvo aunque el agente intente
00:07:19ejecutar comandos dañinos. Ofrece dos tipos de aislamiento. El primero es un entorno en memoria.
00:07:24En esta configuración, usa solo la herramienta bash, que ejecuta scripts solo en los archivos a los que tiene acceso.
00:07:29El segundo tipo es un entorno de sandbox totalmente compatible que ofrece aislamiento completo de máquina virtual
00:07:35usando el sandbox de Vercel. Podemos elegir uno u otro según nuestras necesidades. El enfoque en memoria
00:07:40es más ligero y rápido para casos sencillos, mientras que el aislamiento total por VM es mejor
00:07:46cuando necesitas mayores garantías de seguridad. Aunque este enfoque es muy bueno para ahorrar costes
00:07:51por llamada al modelo, no es el adecuado para todo tipo de problemas. No es ideal si necesitas
00:07:56comparar el significado de las palabras, porque las herramientas de bash buscan coincidencias exactas.
00:08:01Como vimos con nuestro agente, usó palabras clave específicas para localizar los datos. Tampoco es apto
00:08:06para estructuras de archivos desorganizadas donde el agente tendría que luchar con múltiples llamadas a herramientas.
00:08:11Una estructura fácil de navegar para el agente es mucho mejor. Mi sugerencia personal es usar la herramienta bash
00:08:17cuando tengas datos muy estructurados y tus peticiones sean claras. Usa RAG cuando te importe más
00:08:22el significado de lo escrito en los archivos o cuando sea probable que las consultas sean imprecisas.
00:08:27Antes de terminar, unas palabras de nuestro patrocinador: Brilliant. Los mejores ingenieros no solo conocen la sintaxis,
00:08:32sino que desglosan los problemas desde los principios básicos. Por eso nos hemos asociado con Brilliant.
00:08:37Su filosofía es que se aprende mejor haciendo. Priorizan la resolución activa de problemas para que
00:08:42te familiarices con los conceptos en lugar de simplemente memorizarlos. Por ejemplo, en su curso
00:08:47llamado "Cómo funciona la IA", no solo lees, sino que manipulas la lógica real. Podrás practicar con
00:08:52aspectos técnicos como calcular la pérdida en el espacio de pérdida y visualizar la interpolación,
00:08:57desarrollando una intuición profunda que no se consigue solo con una clase en video. A través de sus
00:09:02cursos interactivos, obtienes la forma más efectiva de dominar realmente los conceptos de los que hablamos.
00:09:07También obtendrás un 20% de descuento en la suscripción anual premium, desbloqueando todo su catálogo
00:09:12de cursos de matemáticas, datos e informática. Haz clic en el enlace de la descripción
00:09:17o escanea el código QR en tu pantalla para solicitar tu prueba gratuita de 30 días. Con esto llegamos
00:09:22al final de este video. Si quieres apoyar al canal y ayudarnos a seguir creando contenido como este,
00:09:28puedes hacerlo usando el botón de "Súper gracias" de abajo. Como siempre, gracias por vernos y nos vemos en el próximo.
00:09:32do so by using the super thanks button below. As always, thank you for watching and I'll see you in the next one.