Esto es Perfecto para la Programación con IA

AAI LABS
AI/미래기술컴퓨터/소프트웨어

Transcript

00:00:00Con la dirección que está tomando la codificación por IA,
00:00:02muchísimas cosas se están automatizando.
00:00:03¿Qué tiene de malo que otra cosa se nos escape de las manos?
00:00:06Los LLM obtuvieron herramientas,
00:00:07y así,
00:00:08gran parte de lo que hacían los humanos se automatizó.
00:00:10Con Puppeteer MCP,
00:00:11vimos pruebas de interfaz de usuario automatizadas.
00:00:13Ahora Ingest nos acaba de dar una capa de monitoreo que permite que tus agentes de codificación se conviertan en depuradores en vivo del código que generan.
00:00:20Lo están haciendo al lanzar su MCP para el servidor de desarrollo de Ingest,
00:00:23que es básicamente una versión local de su plataforma en la nube.
00:00:26La plataforma te permite probar todas las funciones que has creado dentro de tu agente y proporciona una interfaz visual para todo,
00:00:33junto con los diferentes eventos que se ejecutan.
00:00:35Con esto,
00:00:35puedes pedir directamente a tus agentes de IA,
00:00:38como Claude Code o Cursor,
00:00:39que realicen todas las pruebas automatizadas.
00:00:41Si Vercel tuviera algo así,
00:00:42su implementación y depuración solo requerirían una única instrucción.
00:00:46Para quienes no lo sepan,
00:00:47Ingest es una plataforma de orquestación de flujos de trabajo de código abierto que te permite construir flujos de trabajo de IA fiables y se encarga de muchísimos problemas que surgen con ellos.
00:00:55Lo he estado usando para construir flujos de trabajo basados en agentes en nuestra empresa,
00:00:58y la experiencia del desarrollador es realmente buena.
00:01:00Con el servidor MCP, ha mejorado aún más.
00:01:03Estos flujos de trabajo se construyen con funciones asíncronas,
00:01:06y hay algunos problemas al probarlas y depurarlas.
00:01:09La mayoría de ellos se activan por eventos externos.
00:01:11Se ejecutan de forma asíncrona con múltiples pasos.
00:01:13Para aquellos que no sepan qué significa asíncrono,
00:01:16son funciones que pueden pausarse y esperar a que algo termine,
00:01:19y luego continuar sin bloquear todo lo demás.
00:01:22Estas funciones forman parte de flujos de trabajo más grandes,
00:01:24lo que dificulta aún más la depuración.
00:01:26Esto suele llevarte a activar manualmente estos eventos,
00:01:29o podrías necesitar cambiar continuamente entre tu editor de código y tu navegador de vez en cuando.
00:01:34Incluso podrías tener que revisar los registros para entender qué pasó realmente con esa única función,
00:01:39o por qué pudo haber fallado o cualquier otra cosa.
00:01:41O incluso podrías necesitar recrear eventos complejos,
00:01:44o activarlos tú mismo para probar realmente la función.
00:01:47Pero ahora,
00:01:48con la integración de MCP,
00:01:49tu agente de IA puede encargarse de todo esto automáticamente.
00:01:52También tenían este documento sobre ingeniería de contexto en la práctica,
00:01:55donde explicaban cómo construyeron realmente un agente de investigación de IA.
00:01:58Usaré este agente para mostrar cómo funciona el MCP.
00:02:01En el agente,
00:02:02implementaron la ingeniería de contexto dentro de él,
00:02:04en lugar de usarla solo para construirlo,
00:02:06tanto en su fase de recuperación de contexto como en su fase de enriquecimiento de contexto.
00:02:10También explican muy bien la diferencia entre
00:02:12"context pushing"
00:02:13y
00:02:13"context pulling"
00:02:14.
00:02:14También es un artículo muy interesante,
00:02:16y podría hacer un video sobre esto.
00:02:18Así que, si te interesa, comenta abajo.
00:02:20El agente es completamente de código abierto.
00:02:22Copié el enlace,
00:02:23lo cloné,
00:02:23instalé las dependencias e inicialicé el código de Claude.
00:02:27Hice que analizara la base de código y creara el archivo claud.md.
00:02:31El artículo también especifica por qué deberíamos usar diferentes modelos por sus distintas fortalezas,
00:02:35y han implementado agentes con LLM separados para diferentes roles en el agente de investigación.
00:02:39Están usando la pasarela de IA con Vercel,
00:02:42lo que te da acceso a más de 100 modelos.
00:02:44Yo quería usar un solo modelo.
00:02:46Usando el archivo claud.md,
00:02:47actualizó la base de código y la cambió para usar la API de OpenAI.
00:02:51Después de editar,
00:02:52simplemente me dijo qué archivos había cambiado.
00:02:54Después de eso,
00:02:55copié la configuración para el código de Claude,
00:02:57creé un archivo .mcp.json,
00:02:59lo pegué,
00:02:59inicié la aplicación Next.js y luego inicié el servidor de desarrollo de Ingest que ya han visto.
00:03:04Después de eso,
00:03:05reinicié el código de Claude y comprobé que el MCP estaba conectado.
00:03:09Dentro del MCP,
00:03:09tienes la gestión de eventos,
00:03:11donde básicamente puede activar funciones con eventos de prueba y obtener IDs de ejecución,
00:03:15junto con otras funciones que le permiten listar e invocar funciones también.
00:03:19Tienes herramientas de monitoreo que le permiten obtener el estado y acceso a la documentación también,
00:03:24así que si algo sale mal con las funciones de Ingest,
00:03:26ya no tengo que buscar manualmente para averiguar qué le pasa a mi agente.
00:03:30Estas herramientas pueden decirle automáticamente a Claude qué salió mal,
00:03:33y él puede arreglarlo por mí.
00:03:34Usó la herramienta de envío de eventos para consultar la función principal de investigación con la pregunta: ¿qué es la ingeniería de contexto?
00:03:40Después de eso,
00:03:41consultó el estado de la ejecución,
00:03:43lo que básicamente significa que preguntó una y otra vez si la ejecución había terminado o no.
00:03:47Luego lo probó de nuevo y vio que todos estaban usando el nombre de modelo correcto y que el flujo de trabajo seguía ejecutándose sin problemas.
00:03:53En sus propias palabras,
00:03:55esto representa un cambio fundamental en cómo están construyendo y depurando funciones sin servidor.
00:04:00En lugar de que las funciones sean cajas negras que el modelo de IA solo lee desde fuera,
00:04:04la IA ahora puede trabajar en la ejecución adecuada y proporcionar información en tiempo real,
00:04:08y esperamos ver esto también con otras herramientas,
00:04:11donde estamos dando más autonomía a la IA.
00:04:13Y estoy bastante emocionado por ello.
00:04:15Con esto llegamos al final de este video.
00:04:16Si deseas apoyar el canal y ayudarnos a seguir haciendo videos como este,
00:04:20puedes hacerlo usando el botón de "Super Thanks" de abajo.
00:04:23Como siempre, gracias por ver y nos vemos en el próximo.

Key Takeaway

Ingest's new Dev Server MCP empowers AI coding agents to act as live debuggers, automating the testing and troubleshooting of complex asynchronous workflows and providing real-time insights into code execution, marking a significant step towards greater AI autonomy in development.

Highlights

Ingest's new Dev Server MCP provides a monitoring layer that transforms AI coding agents into live debuggers for generated code.

The platform offers a visual interface for testing agent functions and tracking events, significantly improving the developer experience for AI workflows.

It automates the testing and debugging of complex asynchronous functions, addressing common challenges like manual event triggering and log analysis.

AI agents, such as Claude Code, can now automatically identify and fix issues within serverless functions, reducing manual intervention.

The integration represents a fundamental shift towards greater AI autonomy in code development and debugging, providing real-time execution insights.

The video demonstrates the MCP's capabilities using an open-source AI research agent, showcasing its practical application in managing and troubleshooting workflows.

Timeline

Introduction to AI Coding Automation and Ingest's Solution

Discusses the increasing automation in AI coding and introduces Ingest's new monitoring layer (MCP) that enables AI coding agents to become live debuggers.

Ingest Dev Server MCP Features and Benefits

Explains the Ingest Dev Server MCP as a local platform for testing agent functions with a visual interface, event tracking, and enabling AI agents to perform automated tests.

Understanding Ingest and Asynchronous Workflow Challenges

Defines Ingest as an open-source workflow orchestration platform and details the inherent difficulties in testing and debugging asynchronous functions, such as manual event triggering and log review.

MCP's Solution to Debugging Challenges

Highlights how the MCP integration allows AI agents to automatically handle complex debugging tasks that were previously manual.

Context Engineering and AI Research Agent Example

References Ingest's document on 'context engineering in practice' and how it was applied to build an AI research agent, touching on 'context pushing' vs. 'context pulling'.

Setting Up and Configuring the AI Agent with MCP

Details the practical steps to set up an open-source AI research agent, including cloning, installing dependencies, configuring Claude Code, and initializing the Ingest Dev Server MCP.

MCP's Event Management and Monitoring Tools

Explains the functionalities within the MCP, such as event management for triggering functions and monitoring tools that provide status and documentation, enabling AI to automatically identify and fix issues.

Demonstration of Claude Code Using MCP for Debugging

Showcases Claude Code utilizing the MCP to query a research function, check execution status, and verify the workflow, illustrating its debugging capabilities in action.

Conclusion: The Future of AI Autonomy in Coding

Concludes that the MCP represents a fundamental shift in serverless function development and debugging, granting AI more autonomy and providing real-time execution insights.

Outro

Standard video outro, thanking viewers and encouraging support for the channel.

Community Posts

No posts yet. Be the first to write about this video!

Write about this video