00:00:00El equipo de Closco acaba de solucionar el mayor problema con MCP al añadir la búsqueda de herramientas,
00:00:05una forma de reducir el contexto hasta un 95% simplemente buscando el nombre de una herramienta antes de usarla,
00:00:10en lugar de precargar todas las herramientas disponibles en el contexto,
00:00:14lo que podría consumir decenas de miles de tokens incluso antes de escribir tu primer prompt.
00:00:18Pero ¿por qué no funcionaba así antes?
00:00:21¿Y robaron esta técnica de Cloudflare?
00:00:24Dale a suscribirse y entremos en materia.
00:00:26Los servidores MCP están absolutamente en todas partes,
00:00:29hay uno para GitHub,
00:00:30Docker,
00:00:31Notion,
00:00:31incluso hay uno de Better Stack que he oído que es realmente bueno.
00:00:35Y con la gente usando Claude Code y LLMs para todo menos código,
00:00:40parece que MCP no va a desaparecer pronto.
00:00:43Pero tiene sus problemas: colisiones de nombres,
00:00:46inyecciones de comandos,
00:00:47y el mayor de todos,
00:00:48la ineficiencia de tokens,
00:00:49porque todas las herramientas de un servidor conectado típicamente se precargan en la ventana de contexto del modelo para darle visibilidad completa.
00:00:57Así que nombres de herramientas,
00:00:58descripciones de herramientas,
00:01:00la documentación completa del esquema JSON que contiene parámetros opcionales y obligatorios,
00:01:04sus tipos,
00:01:05cualquier restricción,
00:01:06básicamente un montón de datos.
00:01:07El equipo de Redis usó 167 herramientas de cuatro servidores diferentes,
00:01:11lo que consumió más de 60,
00:01:13000 tokens incluso antes de escribir un prompt.
00:01:15Casi la mitad de la ventana de contexto de 200k de Opus,
00:01:18y esto es incluso fuera de habilidades y plugins.
00:01:21Así que si tienes muchos servidores,
00:01:23eso podría consumir una cantidad sustancial de tokens.
00:01:25Sí,
00:01:26sé que hay modelos por ahí,
00:01:27como Gemini,
00:01:28que tienen una ventana de 1 millón de tokens,
00:01:30pero los modelos tienden a funcionar peor cuantas más cosas añades a su contexto.
00:01:35Entonces, ¿cuál es la mejor manera de solucionar esto?
00:01:37Bueno,
00:01:37he visto dos enfoques populares en línea: el enfoque programático,
00:01:40que es lo que ha hecho Cloudflare,
00:01:42y el enfoque de búsqueda,
00:01:44que es lo que ha hecho el equipo de Claude Code.
00:01:46Hablaré del enfoque programático un poco más tarde,
00:01:49pero primero,
00:01:50hablemos del proceso de búsqueda,
00:01:52que funciona así.
00:01:53Primero,
00:01:54Claude verifica si las herramientas MCP precargadas son más del 10% del contexto.
00:01:59Es decir,
00:02:0020k tokens si la ventana de contexto es de 200k tokens.
00:02:04Si no,
00:02:05entonces no ocurre ningún cambio y el modelo usa las herramientas MCP como siempre.
00:02:10Pero si es así,
00:02:11entonces Claude descubre dinámicamente las herramientas correctas a usar mediante lenguaje natural y carga de tres a cinco de las herramientas más relevantes según el prompt.
00:02:22Cargará completamente solo estas herramientas en el contexto para que el modelo las use como siempre.
00:02:27Esta fue en realidad su característica más solicitada en GitHub,
00:02:30y funciona de manera similar a AgentSkills,
00:02:33que solo carga nombres y descripciones de habilidades en el contexto,
00:02:36y cuando encuentra una habilidad que considera relevante o una habilidad que se mencionó en el prompt,
00:02:41entonces procede a cargar toda esa habilidad específica en la ventana de contexto.
00:02:46Divulgación progresiva, en pocas palabras.
00:02:47Tanto Anthropic como Cursor han visto grandes beneficios al usar este enfoque para las herramientas MCP.
00:02:53Pero ¿qué hay del enfoque programático?
00:02:55Este funciona haciendo que los modelos orquesten herramientas a través de código en lugar de hacer llamadas API.
00:03:01Así que para estas tres herramientas que necesitan funcionar una tras otra según la respuesta anterior,
00:03:06en lugar de hacer llamadas individuales a herramientas API,
00:03:08Claude en particular puede escribir un script de Python para hacer toda esta orquestación,
00:03:13luego ejecutar el código y presentar el resultado de vuelta al modelo.
00:03:16Cloudflare ha llevado esto un paso más allá haciendo que el modelo escriba definiciones de TypeScript para todas las herramientas disponibles y luego ejecutando el código en un sandbox que suele ser un worker.
00:03:27El equipo de Claude Code en realidad probó el enfoque programático pero encontró que la búsqueda funcionaba mejor,
00:03:33lo cual me cuesta mucho creer considerando que Claude es muy bueno escribiendo código.
00:03:38Y además,
00:03:38esa cosa del navegador de agente CLI con Chromium sin interfaz gráfica que Vacel ha lanzado funciona muy bien en Clawed code,
00:03:44y estoy seguro de que si se pudieran convertir todas las herramientas MCP en comandos CLI usando algo como MCPorter,
00:03:50sería mucho más fácil y eficiente en términos de contexto que los modelos ejecuten un comando CLI específico para una herramienta en lugar de cargar cosas en el contexto,
00:03:59pero bueno,
00:04:00esa es solo mi opinión.
00:04:01En general,
00:04:02me alegra que se estén investigando los problemas con los servidores MCP y quizás eso me convenza de tener más de un servidor instalado.