00:00:00¿Se están volviendo más débiles los agentes de IA o simplemente están trabajando con mala información?
00:00:03El principal problema de los agentes es su contexto.
00:00:06No es que los agentes no tengan información o no puedan recordar cosas,
00:00:09sino que no están fundamentados en una fuente de verdad controlada.
00:00:12Esto significa que trabajar con mala información es la razón de su bajo rendimiento.
00:00:15Seguramente conozcas NotebookLM de Google,
00:00:18que es una herramienta excelente para investigar y también un generador de podcasts.
00:00:22¿Pero qué pasaría si fuera mucho más que eso?
00:00:23Nuestro equipo probó esta herramienta de investigación desde varios ángulos
00:00:27para encontrar la forma de integrarla en nuestros flujos de trabajo de desarrollo,
00:00:30y la verdad, no esperábamos que encajara tan bien.
00:00:32A lo largo del video, nuestro equipo utilizó NotebookLM mediante su herramienta de CLI.
00:00:36Es una interfaz para el producto que te da control total
00:00:39sobre la gestión de tus libretas, fuentes y revisiones de audio de las fuentes del cuaderno.
00:00:44La instalación es sencilla: un solo comando y listo.
00:00:47Una vez instalada, puedes verificarla ejecutando el comando de ayuda.
00:00:51Esto muestra todos los comandos disponibles para controlar las fuentes de NotebookLM,
00:00:56manejar entradas multimodales y todas las funciones que puedes realizar con la herramienta.
00:01:00Pero antes de usarla, autentica la CLI con tu cuenta de Google usando el comando "NLM auth".
00:01:05Al ejecutarlo, se abrirá una ventana de Chrome para que inicies sesión.
00:01:08Después de eso, NLM guarda tus credenciales para futuros usos.
00:01:11Se puede acceder a NotebookLM a través de la CLI y MCP,
00:01:15ambos creados por el mismo desarrollador, pero puedes usar el que prefieras.
00:01:18Elegimos la CLI porque es eficiente en el consumo de tokens
00:01:21y no dará problemas al ejecutar tareas de largo alcance.
00:01:24Podemos usar NotebookLM como un "segundo cerebro" para los agentes de IA,
00:01:27dándole información sobre el código base y dejando que documente todo sobre la marcha.
00:01:31Para ello, añadimos instrucciones en el archivo "claud.md"
00:01:35y le indicamos que todo el conocimiento del proyecto, decisiones de arquitectura
00:01:38y el resto de la documentación debían residir en la libreta.
00:01:41Esta libreta era nuestra única fuente de verdad.
00:01:43Usamos a Claude para crear la libreta mediante la CLI y guardamos su ID en el "claud.md".
00:01:49Así, al trabajar en una función de la app, usamos el modo de planificación primero.
00:01:53Tras la implementación, una vez que la compilación fue exitosa,
00:01:55la libreta se actualizó con la implementación de la función según lo instruido.
00:01:59La libreta creada contenía todas las decisiones que Claude tomó por el camino.
00:02:03Configurarlo como segundo cerebro evita que Claude tenga que buscar entre un gran número de documentos,
00:02:08evitando el reconocimiento de patrones innecesario y saturar el contexto con información irrelevante.
00:02:12En su lugar, confió en las capacidades RAG de NotebookLM para obtener exactamente lo que necesitaba.
00:02:16Así, Claude recibe respuestas sintetizadas de Gemini, no datos en bruto,
00:02:20pudiendo enfocarse más en el desarrollo y la implementación.
00:02:23También puedes compartir la libreta con cualquier persona,
00:02:25y ellos pueden usar NotebookLM para verificar que la implementación cumple con lo necesario,
00:02:31incluso si no tienen perfil técnico, permitiéndoles entender los detalles a su propio ritmo.
00:02:35NotebookLM está diseñado para investigar a través de múltiples fuentes.
00:02:39Como ya usamos mucho el código de Claude para investigar,
00:02:42le dimos el tema de investigación y le pedimos que buscara las fuentes,
00:02:47creara una nueva libreta y las subiera allí.
00:02:49Identificó todas las fuentes y las subió a la libreta creada para esta tarea.
00:02:53Investigar con Claude consume mucho contexto porque también revisa enlaces que luego resultan no estar relacionados.
00:02:59Dividir la investigación en dos y dejar que una herramienta específica se encargue ahorró tiempo y tokens.
00:03:05Con las fuentes en la libreta, borramos el contexto para que no tuviera la información previa de la investigación
00:03:11y le pedimos a Claude que buscara la información en NotebookLM usando la CLI,
00:03:15localizara la investigación sobre el pipeline RAG y extrajera los hallazgos clave mediante el chat de NotebookLM.
00:03:20Claude usó la CLI para recuperar las libretas, envió un mensaje de chat para obtener los hallazgos y devolvió el resultado.
00:03:26Esto fue mucho más rápido que una investigación normal de Claude.
00:03:29Y la ventaja de usar la libreta es que si queremos más información de la misma investigación,
00:03:34podemos volver a ella porque las fuentes están guardadas.
00:03:37Así, Claude no tiene que buscarlas de nuevo porque la investigación ya está disponible externamente.
00:03:41Si lo hiciéramos solo con Claude, no podríamos volver a consultar las fuentes
00:03:45a menos que repitiéramos la investigación y Claude las buscara y consultara todas otra vez.
00:03:49Pero esto nos permite reutilizarlas en futuras sesiones.
00:03:52Entender un código que no has escrito tú es la parte más difícil del desarrollo.
00:03:57Y para simplificar eso, también usamos NotebookLM.
00:04:00Para ello, le pedimos a Claude que clonara el repositorio usando la CLI de GitHub.
00:04:04Una vez clonado, le pedimos que usara "repo-mix" para generar un documento del repositorio.
00:04:09Repo-mix es la herramienta que empaqueta el código en un formato amigable para la IA.
00:04:14Puedes usar la interfaz web para convertir el código a documentos en varios formatos,
00:04:18lo que permite a la IA entender el código fácilmente y de forma eficiente en tokens.
00:04:23Pero nosotros usamos la CLI de repo-mix.
00:04:25La instalamos usando NPM.
00:04:26Y una vez hecho, la CLI de repo-mix quedó disponible globalmente.
00:04:29Así que le pedimos a Claude que creara una libreta en NotebookLM usando la CLI
00:04:34y añadiera el documento formateado como fuente para esa libreta.
00:04:37Tras clonar el repo, usó repo-mix para convertir el código en un documento eficiente
00:04:44y luego creó la libreta nueva añadiendo la fuente en formato TXT.
00:04:47Una vez añadida la fuente,
00:04:49le pedimos a Claude que usara las herramientas de la libreta para visualizar el código
00:04:52y creara diagramas que nos ayudaran a entender qué había en el repositorio.
00:04:56Ejecutó una serie de comandos de visualización.
00:04:58Y cuando terminaron los diagramas, pudimos verlos en el estudio de NotebookLM.
00:05:03Creó un atlas que sirve de guía para el funcionamiento clave del proyecto.
00:05:07Generó un mapa mental detallado para cada aspecto de la app
00:05:09y nos permitió chatear sobre cada uno individualmente.
00:05:12También creó infografías donde podíamos ver los diferentes aspectos visualizados,
00:05:16facilitando la comprensión visual del código
00:05:19en lugar de depender solo de las respuestas de texto de Claude.
00:05:21Ahora, antes de seguir, unas palabras de nuestro patrocinador: Make,
00:05:25la plataforma que potencia a los equipos para alcanzar su máximo potencial
00:05:28construyendo y acelerando sus negocios con IA.
00:05:31Sabemos que el mayor riesgo de los agentes autónomos es el problema de la "caja negra".
00:05:35Los despliegas, pero no puedes verificar sus decisiones.
00:05:37Make ha solucionado esto combinando capacidades "no-code" asistidas por IA
00:05:41con más de 3000 aplicaciones preconfiguradas para ofrecer un enfoque de "caja de cristal".
00:05:46En este video, uso su agente preconfigurado de análisis de mercado
00:05:49para mostrar cómo se puede escalar manteniendo el control.
00:05:52Junto a herramientas potentes como MakeGrid, MCP y analítica avanzada,
00:05:56lo que cambia las reglas del juego es el panel de razonamiento.
00:05:58Te permite ver la lógica del agente paso a paso,
00:06:01fundamentar sus respuestas con la función de conocimiento,
00:06:03y depurar en vivo con la herramienta de chat directamente en el lienzo.
00:06:06Es la transparencia que los desarrolladores estaban esperando.
00:06:09Deja de adivinar y empieza a escalar con control.
00:06:11Haz clic en el enlace del comentario fijado para probar los nuevos agentes de Make hoy mismo.
00:06:15Cuando la IA encuentra un problema que no está en su base de conocimientos,
00:06:18hace búsquedas web y filtra recursos para hallar una solución.
00:06:22Nos preguntamos si podíamos omitir las búsquedas web por completo
00:06:25y sustituirlas por una base de conocimientos.
00:06:27El problema de la búsqueda web es que Claude extrae muchas fuentes,
00:06:30pero solo unas pocas son realmente importantes.
00:06:32El resto solo desperdicia tokens.
00:06:33Así que le pedimos a Claude que creara una libreta en NotebookLM
00:06:37y añadiera fuentes de documentación, comunidades
00:06:40y soluciones de diversas plataformas
00:06:41que convirtieran esta libreta en el lugar de referencia para depuración.
00:06:44Creó la libreta y empezó a buscar fuentes para añadir.
00:06:48Al final, la libreta tenía documentación oficial,
00:06:50foros de la comunidad, repositorios de GitHub, blogs y otras referencias
00:06:55que servían como base de conocimientos para temas de depuración.
00:06:58Añadimos el ID de la libreta en el archivo "claud.md"
00:07:01y le dijimos a Claude que la usara como fuente para cualquier error que encontrara.
00:07:05También le dimos la instrucción de que, al toparse con un error,
00:07:08consultara primero la libreta antes de buscar en la web.
00:07:11Con esto configurado, cuando apareció un error,
00:07:13como el uso de un middleware obsoleto en el proyecto,
00:07:16lo manejó de forma distinta.
00:07:18Si lo hubiera resuelto de la forma habitual,
00:07:19primero habría buscado la documentación y luego arreglado el problema.
00:07:23Pero en su lugar, simplemente consultó la libreta con una pregunta específica
00:07:26sobre cómo migrar al proxy más reciente,
00:07:28obteniendo una respuesta estructurada solo con la libreta,
00:07:31en vez de traer resultados de toda la web.
00:07:33Este "claud.md", junto con el resto de recursos,
00:07:36están disponibles en AI Labs Pro.
00:07:38Para quienes no lo sepan, es nuestra comunidad recién lanzada
00:07:41donde encontrarán plantillas listas para usar, prompts,
00:07:43todos los comandos y habilidades que pueden integrar en sus proyectos
00:07:47de este video y de todos los anteriores.
00:07:49Si valoras lo que hacemos y quieres apoyar al canal,
00:07:52esta es la mejor forma de hacerlo.
00:07:53Enlaces en la descripción.
00:07:55Siempre empezamos el desarrollo de IA escribiendo documentación,
00:07:59así que pensamos en subir esos documentos también a NotebookLM.
00:08:02Al trabajar en una aplicación,
00:08:04creamos los documentos y, una vez listos,
00:08:06le pedimos a Claude que creara otra libreta en NotebookLM
00:08:09y subiera todos los documentos como fuentes allí.
00:08:12Creó la libreta y añadió todas las fuentes a NotebookLM.
00:08:16Con estas fuentes, la información quedó organizada y fiable,
00:08:19ayudando a Claude a entender los detalles del proyecto.
00:08:21Y si trabajamos con personas no técnicas,
00:08:24podemos compartir la libreta y dejar que cualquiera con acceso chatee con ella
00:08:27para entender las cosas por su cuenta.
00:08:28Y esta libreta no solo ayuda a Claude.
00:08:30Si usas otras herramientas como Cursor, Gemini CLI,
00:08:34o si alguien más está construyendo contigo,
00:08:36esta libreta también puede servirles como base de conocimientos.
00:08:39Porque con el chat de la libreta,
00:08:40cada agente puede obtener información específica para lo que necesite
00:08:44en lugar de depender de herramientas para buscar entre archivos.
00:08:46De este modo, Claude o cualquier agente puede usar la herramienta de consulta de NLM,
00:08:51preguntar por lo relacionado con su tarea actual
00:08:53y construir su contexto a partir de ahí.
00:08:55Además, si te gusta nuestro contenido, considera darle al botón de "hype",
00:08:58ya que nos ayuda a crear más videos como este
00:09:00y llegar a más gente.
00:09:02Ya vimos cómo usarlo para incorporarnos a un código base,
00:09:06pero queríamos ver si esas mismas visualizaciones podían ayudar también a los agentes.
00:09:10Así que le pedimos a Claude que creara otra libreta
00:09:12y generara visualizaciones que ayudaran al agente a orientarse en el código.
00:09:16Creó la libreta y añadió mapas mentales, infografías, tablas de datos
00:09:20y varias fuentes a NotebookLM,
00:09:22descargándolas luego en la carpeta de visualizaciones del proyecto.
00:09:25Tenía varios formatos para la comprensión del agente,
00:09:28incluyendo tablas en archivos CSV y Markdown,
00:09:30y también archivos JSON para los mapas mentales.
00:09:33Lo que hizo fue crear mapas mentales para todas estas funciones.
00:09:36Estos eran los que vimos exportados como archivos JSON.
00:09:40También creó una presentación completa para facilitar la comprensión visual.
00:09:43Cada vez que necesitaba verificar algo,
00:09:46revisaba su mapa mental correspondiente en lugar de navegar por todo el sistema de archivos,
00:09:50encontrando el flujo exacto y consultando a la libreta lo que necesitaba.
00:09:54Del mismo modo, revisó endpoints, analizó flujos
00:09:56y consultó la libreta usando los mapas mentales en JSON
00:10:00en lugar de tener que navegar por todo el código.
00:10:03Otra forma de usar NotebookLM
00:10:05es para añadir todos los problemas de seguridad comunes que enfrentamos
00:10:08en sitios web generados por IA, fundamentándolos en fuentes adecuadas.
00:10:12Así que le pedimos a Claude que creara una libreta con la CLI
00:10:15y añadiera especificaciones de funciones y fuentes relevantes sobre seguridad.
00:10:19El fin de esta libreta es servir como manual de seguridad para Claude,
00:10:22para que ante cualquier problema pueda recurrir a ella.
00:10:26Creó la libreta y añadió todas las fuentes.
00:10:28Incluyó guías de seguridad personalizadas y hojas de trucos de OWASP,
00:10:32medidas de seguridad del stack tecnológico de GitHub,
00:10:35bases de datos CVE y otros recursos para asegurar la app.
00:10:39La libreta creada tenía 61 fuentes en archivos distintos,
00:10:43con avisos de seguridad de diversas procedencias.
00:10:45Con esto, cuando le pedimos a Claude un chequeo rápido de seguridad,
00:10:49usó el manual, generó un informe
00:10:51e identificó varios problemas de distinta gravedad,
00:10:54como un error de coma flotante en las transacciones que detectó en la app,
00:10:58que podría ser grave si las transacciones son de montos elevados.
00:11:00Pudo hacerlo porque el chequeo estaba basado en la investigación de NotebookLM.
00:11:04Con esto llegamos al final del video.
00:11:06Si quieres apoyar al canal y ayudarnos a seguir creando contenido así,
00:11:10puedes hacerlo mediante el botón de "Súper gracias" de abajo.
00:11:13Como siempre, gracias por vernos y nos vemos en el próximo.