00:00:00Con la dirección que está tomando la codificación por IA,
00:00:02muchísimas cosas se están automatizando.
00:00:03¿Qué tiene de malo que otra cosa se nos escape de las manos?
00:00:06Los LLM obtuvieron herramientas,
00:00:07y así,
00:00:08gran parte de lo que hacían los humanos se automatizó.
00:00:10Con Puppeteer MCP,
00:00:11vimos pruebas de interfaz de usuario automatizadas.
00:00:13Ahora Ingest nos acaba de dar una capa de monitoreo que permite que tus agentes de codificación se conviertan en depuradores en vivo del código que generan.
00:00:20Lo están haciendo al lanzar su MCP para el servidor de desarrollo de Ingest,
00:00:23que es básicamente una versión local de su plataforma en la nube.
00:00:26La plataforma te permite probar todas las funciones que has creado dentro de tu agente y proporciona una interfaz visual para todo,
00:00:33junto con los diferentes eventos que se ejecutan.
00:00:35Con esto,
00:00:35puedes pedir directamente a tus agentes de IA,
00:00:38como Claude Code o Cursor,
00:00:39que realicen todas las pruebas automatizadas.
00:00:41Si Vercel tuviera algo así,
00:00:42su implementación y depuración solo requerirían una única instrucción.
00:00:46Para quienes no lo sepan,
00:00:47Ingest es una plataforma de orquestación de flujos de trabajo de código abierto que te permite construir flujos de trabajo de IA fiables y se encarga de muchísimos problemas que surgen con ellos.
00:00:55Lo he estado usando para construir flujos de trabajo basados en agentes en nuestra empresa,
00:00:58y la experiencia del desarrollador es realmente buena.
00:01:00Con el servidor MCP, ha mejorado aún más.
00:01:03Estos flujos de trabajo se construyen con funciones asíncronas,
00:01:06y hay algunos problemas al probarlas y depurarlas.
00:01:09La mayoría de ellos se activan por eventos externos.
00:01:11Se ejecutan de forma asíncrona con múltiples pasos.
00:01:13Para aquellos que no sepan qué significa asíncrono,
00:01:16son funciones que pueden pausarse y esperar a que algo termine,
00:01:19y luego continuar sin bloquear todo lo demás.
00:01:22Estas funciones forman parte de flujos de trabajo más grandes,
00:01:24lo que dificulta aún más la depuración.
00:01:26Esto suele llevarte a activar manualmente estos eventos,
00:01:29o podrías necesitar cambiar continuamente entre tu editor de código y tu navegador de vez en cuando.
00:01:34Incluso podrías tener que revisar los registros para entender qué pasó realmente con esa única función,
00:01:39o por qué pudo haber fallado o cualquier otra cosa.
00:01:41O incluso podrías necesitar recrear eventos complejos,
00:01:44o activarlos tú mismo para probar realmente la función.
00:01:47Pero ahora,
00:01:48con la integración de MCP,
00:01:49tu agente de IA puede encargarse de todo esto automáticamente.
00:01:52También tenían este documento sobre ingeniería de contexto en la práctica,
00:01:55donde explicaban cómo construyeron realmente un agente de investigación de IA.
00:01:58Usaré este agente para mostrar cómo funciona el MCP.
00:02:01En el agente,
00:02:02implementaron la ingeniería de contexto dentro de él,
00:02:04en lugar de usarla solo para construirlo,
00:02:06tanto en su fase de recuperación de contexto como en su fase de enriquecimiento de contexto.
00:02:10También explican muy bien la diferencia entre
00:02:12"context pushing"
00:02:13y
00:02:13"context pulling"
00:02:14.
00:02:14También es un artículo muy interesante,
00:02:16y podría hacer un video sobre esto.
00:02:18Así que, si te interesa, comenta abajo.
00:02:20El agente es completamente de código abierto.
00:02:22Copié el enlace,
00:02:23lo cloné,
00:02:23instalé las dependencias e inicialicé el código de Claude.
00:02:27Hice que analizara la base de código y creara el archivo claud.md.
00:02:31El artículo también especifica por qué deberíamos usar diferentes modelos por sus distintas fortalezas,
00:02:35y han implementado agentes con LLM separados para diferentes roles en el agente de investigación.
00:02:39Están usando la pasarela de IA con Vercel,
00:02:42lo que te da acceso a más de 100 modelos.
00:02:44Yo quería usar un solo modelo.
00:02:46Usando el archivo claud.md,
00:02:47actualizó la base de código y la cambió para usar la API de OpenAI.
00:02:51Después de editar,
00:02:52simplemente me dijo qué archivos había cambiado.
00:02:54Después de eso,
00:02:55copié la configuración para el código de Claude,
00:02:57creé un archivo .mcp.json,
00:02:59lo pegué,
00:02:59inicié la aplicación Next.js y luego inicié el servidor de desarrollo de Ingest que ya han visto.
00:03:04Después de eso,
00:03:05reinicié el código de Claude y comprobé que el MCP estaba conectado.
00:03:09Dentro del MCP,
00:03:09tienes la gestión de eventos,
00:03:11donde básicamente puede activar funciones con eventos de prueba y obtener IDs de ejecución,
00:03:15junto con otras funciones que le permiten listar e invocar funciones también.
00:03:19Tienes herramientas de monitoreo que le permiten obtener el estado y acceso a la documentación también,
00:03:24así que si algo sale mal con las funciones de Ingest,
00:03:26ya no tengo que buscar manualmente para averiguar qué le pasa a mi agente.
00:03:30Estas herramientas pueden decirle automáticamente a Claude qué salió mal,
00:03:33y él puede arreglarlo por mí.
00:03:34Usó la herramienta de envío de eventos para consultar la función principal de investigación con la pregunta: ¿qué es la ingeniería de contexto?
00:03:40Después de eso,
00:03:41consultó el estado de la ejecución,
00:03:43lo que básicamente significa que preguntó una y otra vez si la ejecución había terminado o no.
00:03:47Luego lo probó de nuevo y vio que todos estaban usando el nombre de modelo correcto y que el flujo de trabajo seguía ejecutándose sin problemas.
00:03:53En sus propias palabras,
00:03:55esto representa un cambio fundamental en cómo están construyendo y depurando funciones sin servidor.
00:04:00En lugar de que las funciones sean cajas negras que el modelo de IA solo lee desde fuera,
00:04:04la IA ahora puede trabajar en la ejecución adecuada y proporcionar información en tiempo real,
00:04:08y esperamos ver esto también con otras herramientas,
00:04:11donde estamos dando más autonomía a la IA.
00:04:13Y estoy bastante emocionado por ello.
00:04:15Con esto llegamos al final de este video.
00:04:16Si deseas apoyar el canal y ayudarnos a seguir haciendo videos como este,
00:04:20puedes hacerlo usando el botón de "Super Thanks" de abajo.
00:04:23Como siempre, gracias por ver y nos vemos en el próximo.