Cómo usar NotebookLM con cualquier agente: 7 formas increíbles

AAI LABS
컴퓨터/소프트웨어창업/스타트업AI/미래기술

Transcript

00:00:00¿Se están volviendo más débiles los agentes de IA o simplemente están trabajando con mala información?
00:00:03El principal problema de los agentes es su contexto.
00:00:06No es que los agentes no tengan información o no puedan recordar cosas,
00:00:09sino que no están fundamentados en una fuente de verdad controlada.
00:00:12Esto significa que trabajar con mala información es la razón de su bajo rendimiento.
00:00:15Seguramente conozcas NotebookLM de Google,
00:00:18que es una herramienta excelente para investigar y también un generador de podcasts.
00:00:22¿Pero qué pasaría si fuera mucho más que eso?
00:00:23Nuestro equipo probó esta herramienta de investigación desde varios ángulos
00:00:27para encontrar la forma de integrarla en nuestros flujos de trabajo de desarrollo,
00:00:30y la verdad, no esperábamos que encajara tan bien.
00:00:32A lo largo del video, nuestro equipo utilizó NotebookLM mediante su herramienta de CLI.
00:00:36Es una interfaz para el producto que te da control total
00:00:39sobre la gestión de tus libretas, fuentes y revisiones de audio de las fuentes del cuaderno.
00:00:44La instalación es sencilla: un solo comando y listo.
00:00:47Una vez instalada, puedes verificarla ejecutando el comando de ayuda.
00:00:51Esto muestra todos los comandos disponibles para controlar las fuentes de NotebookLM,
00:00:56manejar entradas multimodales y todas las funciones que puedes realizar con la herramienta.
00:01:00Pero antes de usarla, autentica la CLI con tu cuenta de Google usando el comando "NLM auth".
00:01:05Al ejecutarlo, se abrirá una ventana de Chrome para que inicies sesión.
00:01:08Después de eso, NLM guarda tus credenciales para futuros usos.
00:01:11Se puede acceder a NotebookLM a través de la CLI y MCP,
00:01:15ambos creados por el mismo desarrollador, pero puedes usar el que prefieras.
00:01:18Elegimos la CLI porque es eficiente en el consumo de tokens
00:01:21y no dará problemas al ejecutar tareas de largo alcance.
00:01:24Podemos usar NotebookLM como un "segundo cerebro" para los agentes de IA,
00:01:27dándole información sobre el código base y dejando que documente todo sobre la marcha.
00:01:31Para ello, añadimos instrucciones en el archivo "claud.md"
00:01:35y le indicamos que todo el conocimiento del proyecto, decisiones de arquitectura
00:01:38y el resto de la documentación debían residir en la libreta.
00:01:41Esta libreta era nuestra única fuente de verdad.
00:01:43Usamos a Claude para crear la libreta mediante la CLI y guardamos su ID en el "claud.md".
00:01:49Así, al trabajar en una función de la app, usamos el modo de planificación primero.
00:01:53Tras la implementación, una vez que la compilación fue exitosa,
00:01:55la libreta se actualizó con la implementación de la función según lo instruido.
00:01:59La libreta creada contenía todas las decisiones que Claude tomó por el camino.
00:02:03Configurarlo como segundo cerebro evita que Claude tenga que buscar entre un gran número de documentos,
00:02:08evitando el reconocimiento de patrones innecesario y saturar el contexto con información irrelevante.
00:02:12En su lugar, confió en las capacidades RAG de NotebookLM para obtener exactamente lo que necesitaba.
00:02:16Así, Claude recibe respuestas sintetizadas de Gemini, no datos en bruto,
00:02:20pudiendo enfocarse más en el desarrollo y la implementación.
00:02:23También puedes compartir la libreta con cualquier persona,
00:02:25y ellos pueden usar NotebookLM para verificar que la implementación cumple con lo necesario,
00:02:31incluso si no tienen perfil técnico, permitiéndoles entender los detalles a su propio ritmo.
00:02:35NotebookLM está diseñado para investigar a través de múltiples fuentes.
00:02:39Como ya usamos mucho el código de Claude para investigar,
00:02:42le dimos el tema de investigación y le pedimos que buscara las fuentes,
00:02:47creara una nueva libreta y las subiera allí.
00:02:49Identificó todas las fuentes y las subió a la libreta creada para esta tarea.
00:02:53Investigar con Claude consume mucho contexto porque también revisa enlaces que luego resultan no estar relacionados.
00:02:59Dividir la investigación en dos y dejar que una herramienta específica se encargue ahorró tiempo y tokens.
00:03:05Con las fuentes en la libreta, borramos el contexto para que no tuviera la información previa de la investigación
00:03:11y le pedimos a Claude que buscara la información en NotebookLM usando la CLI,
00:03:15localizara la investigación sobre el pipeline RAG y extrajera los hallazgos clave mediante el chat de NotebookLM.
00:03:20Claude usó la CLI para recuperar las libretas, envió un mensaje de chat para obtener los hallazgos y devolvió el resultado.
00:03:26Esto fue mucho más rápido que una investigación normal de Claude.
00:03:29Y la ventaja de usar la libreta es que si queremos más información de la misma investigación,
00:03:34podemos volver a ella porque las fuentes están guardadas.
00:03:37Así, Claude no tiene que buscarlas de nuevo porque la investigación ya está disponible externamente.
00:03:41Si lo hiciéramos solo con Claude, no podríamos volver a consultar las fuentes
00:03:45a menos que repitiéramos la investigación y Claude las buscara y consultara todas otra vez.
00:03:49Pero esto nos permite reutilizarlas en futuras sesiones.
00:03:52Entender un código que no has escrito tú es la parte más difícil del desarrollo.
00:03:57Y para simplificar eso, también usamos NotebookLM.
00:04:00Para ello, le pedimos a Claude que clonara el repositorio usando la CLI de GitHub.
00:04:04Una vez clonado, le pedimos que usara "repo-mix" para generar un documento del repositorio.
00:04:09Repo-mix es la herramienta que empaqueta el código en un formato amigable para la IA.
00:04:14Puedes usar la interfaz web para convertir el código a documentos en varios formatos,
00:04:18lo que permite a la IA entender el código fácilmente y de forma eficiente en tokens.
00:04:23Pero nosotros usamos la CLI de repo-mix.
00:04:25La instalamos usando NPM.
00:04:26Y una vez hecho, la CLI de repo-mix quedó disponible globalmente.
00:04:29Así que le pedimos a Claude que creara una libreta en NotebookLM usando la CLI
00:04:34y añadiera el documento formateado como fuente para esa libreta.
00:04:37Tras clonar el repo, usó repo-mix para convertir el código en un documento eficiente
00:04:44y luego creó la libreta nueva añadiendo la fuente en formato TXT.
00:04:47Una vez añadida la fuente,
00:04:49le pedimos a Claude que usara las herramientas de la libreta para visualizar el código
00:04:52y creara diagramas que nos ayudaran a entender qué había en el repositorio.
00:04:56Ejecutó una serie de comandos de visualización.
00:04:58Y cuando terminaron los diagramas, pudimos verlos en el estudio de NotebookLM.
00:05:03Creó un atlas que sirve de guía para el funcionamiento clave del proyecto.
00:05:07Generó un mapa mental detallado para cada aspecto de la app
00:05:09y nos permitió chatear sobre cada uno individualmente.
00:05:12También creó infografías donde podíamos ver los diferentes aspectos visualizados,
00:05:16facilitando la comprensión visual del código
00:05:19en lugar de depender solo de las respuestas de texto de Claude.
00:05:21Ahora, antes de seguir, unas palabras de nuestro patrocinador: Make,
00:05:25la plataforma que potencia a los equipos para alcanzar su máximo potencial
00:05:28construyendo y acelerando sus negocios con IA.
00:05:31Sabemos que el mayor riesgo de los agentes autónomos es el problema de la "caja negra".
00:05:35Los despliegas, pero no puedes verificar sus decisiones.
00:05:37Make ha solucionado esto combinando capacidades "no-code" asistidas por IA
00:05:41con más de 3000 aplicaciones preconfiguradas para ofrecer un enfoque de "caja de cristal".
00:05:46En este video, uso su agente preconfigurado de análisis de mercado
00:05:49para mostrar cómo se puede escalar manteniendo el control.
00:05:52Junto a herramientas potentes como MakeGrid, MCP y analítica avanzada,
00:05:56lo que cambia las reglas del juego es el panel de razonamiento.
00:05:58Te permite ver la lógica del agente paso a paso,
00:06:01fundamentar sus respuestas con la función de conocimiento,
00:06:03y depurar en vivo con la herramienta de chat directamente en el lienzo.
00:06:06Es la transparencia que los desarrolladores estaban esperando.
00:06:09Deja de adivinar y empieza a escalar con control.
00:06:11Haz clic en el enlace del comentario fijado para probar los nuevos agentes de Make hoy mismo.
00:06:15Cuando la IA encuentra un problema que no está en su base de conocimientos,
00:06:18hace búsquedas web y filtra recursos para hallar una solución.
00:06:22Nos preguntamos si podíamos omitir las búsquedas web por completo
00:06:25y sustituirlas por una base de conocimientos.
00:06:27El problema de la búsqueda web es que Claude extrae muchas fuentes,
00:06:30pero solo unas pocas son realmente importantes.
00:06:32El resto solo desperdicia tokens.
00:06:33Así que le pedimos a Claude que creara una libreta en NotebookLM
00:06:37y añadiera fuentes de documentación, comunidades
00:06:40y soluciones de diversas plataformas
00:06:41que convirtieran esta libreta en el lugar de referencia para depuración.
00:06:44Creó la libreta y empezó a buscar fuentes para añadir.
00:06:48Al final, la libreta tenía documentación oficial,
00:06:50foros de la comunidad, repositorios de GitHub, blogs y otras referencias
00:06:55que servían como base de conocimientos para temas de depuración.
00:06:58Añadimos el ID de la libreta en el archivo "claud.md"
00:07:01y le dijimos a Claude que la usara como fuente para cualquier error que encontrara.
00:07:05También le dimos la instrucción de que, al toparse con un error,
00:07:08consultara primero la libreta antes de buscar en la web.
00:07:11Con esto configurado, cuando apareció un error,
00:07:13como el uso de un middleware obsoleto en el proyecto,
00:07:16lo manejó de forma distinta.
00:07:18Si lo hubiera resuelto de la forma habitual,
00:07:19primero habría buscado la documentación y luego arreglado el problema.
00:07:23Pero en su lugar, simplemente consultó la libreta con una pregunta específica
00:07:26sobre cómo migrar al proxy más reciente,
00:07:28obteniendo una respuesta estructurada solo con la libreta,
00:07:31en vez de traer resultados de toda la web.
00:07:33Este "claud.md", junto con el resto de recursos,
00:07:36están disponibles en AI Labs Pro.
00:07:38Para quienes no lo sepan, es nuestra comunidad recién lanzada
00:07:41donde encontrarán plantillas listas para usar, prompts,
00:07:43todos los comandos y habilidades que pueden integrar en sus proyectos
00:07:47de este video y de todos los anteriores.
00:07:49Si valoras lo que hacemos y quieres apoyar al canal,
00:07:52esta es la mejor forma de hacerlo.
00:07:53Enlaces en la descripción.
00:07:55Siempre empezamos el desarrollo de IA escribiendo documentación,
00:07:59así que pensamos en subir esos documentos también a NotebookLM.
00:08:02Al trabajar en una aplicación,
00:08:04creamos los documentos y, una vez listos,
00:08:06le pedimos a Claude que creara otra libreta en NotebookLM
00:08:09y subiera todos los documentos como fuentes allí.
00:08:12Creó la libreta y añadió todas las fuentes a NotebookLM.
00:08:16Con estas fuentes, la información quedó organizada y fiable,
00:08:19ayudando a Claude a entender los detalles del proyecto.
00:08:21Y si trabajamos con personas no técnicas,
00:08:24podemos compartir la libreta y dejar que cualquiera con acceso chatee con ella
00:08:27para entender las cosas por su cuenta.
00:08:28Y esta libreta no solo ayuda a Claude.
00:08:30Si usas otras herramientas como Cursor, Gemini CLI,
00:08:34o si alguien más está construyendo contigo,
00:08:36esta libreta también puede servirles como base de conocimientos.
00:08:39Porque con el chat de la libreta,
00:08:40cada agente puede obtener información específica para lo que necesite
00:08:44en lugar de depender de herramientas para buscar entre archivos.
00:08:46De este modo, Claude o cualquier agente puede usar la herramienta de consulta de NLM,
00:08:51preguntar por lo relacionado con su tarea actual
00:08:53y construir su contexto a partir de ahí.
00:08:55Además, si te gusta nuestro contenido, considera darle al botón de "hype",
00:08:58ya que nos ayuda a crear más videos como este
00:09:00y llegar a más gente.
00:09:02Ya vimos cómo usarlo para incorporarnos a un código base,
00:09:06pero queríamos ver si esas mismas visualizaciones podían ayudar también a los agentes.
00:09:10Así que le pedimos a Claude que creara otra libreta
00:09:12y generara visualizaciones que ayudaran al agente a orientarse en el código.
00:09:16Creó la libreta y añadió mapas mentales, infografías, tablas de datos
00:09:20y varias fuentes a NotebookLM,
00:09:22descargándolas luego en la carpeta de visualizaciones del proyecto.
00:09:25Tenía varios formatos para la comprensión del agente,
00:09:28incluyendo tablas en archivos CSV y Markdown,
00:09:30y también archivos JSON para los mapas mentales.
00:09:33Lo que hizo fue crear mapas mentales para todas estas funciones.
00:09:36Estos eran los que vimos exportados como archivos JSON.
00:09:40También creó una presentación completa para facilitar la comprensión visual.
00:09:43Cada vez que necesitaba verificar algo,
00:09:46revisaba su mapa mental correspondiente en lugar de navegar por todo el sistema de archivos,
00:09:50encontrando el flujo exacto y consultando a la libreta lo que necesitaba.
00:09:54Del mismo modo, revisó endpoints, analizó flujos
00:09:56y consultó la libreta usando los mapas mentales en JSON
00:10:00en lugar de tener que navegar por todo el código.
00:10:03Otra forma de usar NotebookLM
00:10:05es para añadir todos los problemas de seguridad comunes que enfrentamos
00:10:08en sitios web generados por IA, fundamentándolos en fuentes adecuadas.
00:10:12Así que le pedimos a Claude que creara una libreta con la CLI
00:10:15y añadiera especificaciones de funciones y fuentes relevantes sobre seguridad.
00:10:19El fin de esta libreta es servir como manual de seguridad para Claude,
00:10:22para que ante cualquier problema pueda recurrir a ella.
00:10:26Creó la libreta y añadió todas las fuentes.
00:10:28Incluyó guías de seguridad personalizadas y hojas de trucos de OWASP,
00:10:32medidas de seguridad del stack tecnológico de GitHub,
00:10:35bases de datos CVE y otros recursos para asegurar la app.
00:10:39La libreta creada tenía 61 fuentes en archivos distintos,
00:10:43con avisos de seguridad de diversas procedencias.
00:10:45Con esto, cuando le pedimos a Claude un chequeo rápido de seguridad,
00:10:49usó el manual, generó un informe
00:10:51e identificó varios problemas de distinta gravedad,
00:10:54como un error de coma flotante en las transacciones que detectó en la app,
00:10:58que podría ser grave si las transacciones son de montos elevados.
00:11:00Pudo hacerlo porque el chequeo estaba basado en la investigación de NotebookLM.
00:11:04Con esto llegamos al final del video.
00:11:06Si quieres apoyar al canal y ayudarnos a seguir creando contenido así,
00:11:10puedes hacerlo mediante el botón de "Súper gracias" de abajo.
00:11:13Como siempre, gracias por vernos y nos vemos en el próximo.

Key Takeaway

La integración de NotebookLM con agentes de IA mediante herramientas de CLI permite optimizar el uso de tokens y mejorar la precisión del desarrollo al proporcionar una fuente de verdad estructurada y externa.

Highlights

Integración de NotebookLM como una "fuente de verdad" externa para agentes de IA como Claude.

Uso de la interfaz de línea de comandos (CLI) y MCP para gestionar libretas y fuentes de forma eficiente.

Reducción drástica del consumo de tokens y saturación de contexto al delegar la búsqueda RAG a NotebookLM.

Utilización de herramientas como Repo-mix para convertir bases de código complejas en formatos legibles para la IA.

Creación de visualizaciones automáticas como mapas mentales e infografías para mejorar la comprensión de sistemas.

Implementación de manuales de seguridad basados en documentación de OWASP y bases de datos CVE para auditorías en tiempo real.

Timeline

Introducción y el Problema del Contexto en la IA

El presentador plantea que el bajo rendimiento de los agentes de IA no se debe a su falta de inteligencia, sino a que no están fundamentados en una fuente de verdad controlada. Se introduce NotebookLM como una herramienta que va más allá de la investigación y la generación de audio, sirviendo para optimizar flujos de trabajo de desarrollo. El equipo explica el uso de una interfaz de línea de comandos (CLI) para gestionar libretas, fuentes y entradas multimodales de manera total. Para comenzar, se detalla el proceso de instalación simple y la autenticación necesaria mediante el comando "NLM auth". Esta sección establece la importancia de tener una infraestructura que permita el control granular de la información que recibe el agente.

NotebookLM como Segundo Cerebro para el Desarrollo

Se explica cómo NotebookLM puede actuar como un "segundo cerebro" para agentes de IA como Claude, almacenando decisiones de arquitectura y documentación técnica. Al integrar instrucciones en el archivo "claud.md", el agente utiliza la CLI para actualizar la libreta cada vez que se implementa una nueva función con éxito. Esto evita que la IA se pierda en un mar de documentos irrelevantes, permitiéndole confiar en las capacidades RAG (Generación Aumentada por Recuperación) para obtener respuestas sintetizadas. El beneficio principal es la eficiencia en el consumo de tokens y la capacidad de compartir este conocimiento con perfiles no técnicos. De esta forma, el desarrollo se vuelve más transparente y accesible para todos los miembros de un equipo.

Investigación Eficiente y Reutilización de Fuentes

El video detalla un método para realizar investigaciones técnicas sin saturar el contexto del chat principal de Claude. Al delegar la búsqueda y el filtrado de fuentes a NotebookLM, el agente puede extraer hallazgos clave de manera mucho más rápida y precisa. Esta separación de tareas ahorra tiempo y recursos, ya que Claude no tiene que volver a leer enlaces irrelevantes en cada sesión. Una ventaja crítica mencionada es que las fuentes permanecen guardadas externamente, permitiendo su reutilización en futuras consultas sin repetir el proceso de búsqueda. Este enfoque transforma la investigación en un activo persistente y estructurado fuera del historial del chat.

Análisis de Código Desconocido con Repo-mix

Entender código ajeno se describe como uno de los mayores retos del desarrollo, y aquí se presenta el uso de Repo-mix como solución. Esta herramienta empaqueta repositorios enteros en un formato amigable para la IA, que luego se sube a NotebookLM como fuente de conocimiento. Una vez cargado el código, se utilizan herramientas de visualización para generar atlas, mapas mentales e infografías que facilitan la navegación por el sistema de archivos. El presentador destaca que estas representaciones visuales ayudan a comprender los flujos del proyecto de forma intuitiva en lugar de depender únicamente de texto. Esto permite a los desarrolladores y agentes orientarse rápidamente en proyectos grandes y complejos.

Patrocinio y Transparencia con Make

En esta sección, se presenta a Make como una plataforma clave para escalar negocios con IA manteniendo un control total. Se aborda el problema de la "caja negra" en los agentes autónomos, donde no se pueden verificar los procesos de toma de decisiones. Make ofrece un enfoque de "caja de cristal" mediante un panel de razonamiento que muestra la lógica del agente paso a paso. Se mencionan herramientas como MakeGrid y el soporte para MCP, que permiten depurar en vivo y fundamentar respuestas. El segmento subraya que la transparencia es fundamental para los desarrolladores que buscan escalar sus operaciones de IA de forma segura.

Depuración Inteligente y Prevención de Errores

El equipo explora la posibilidad de sustituir las búsquedas web tradicionales por una base de conocimientos personalizada en NotebookLM para la depuración de errores. Al recopilar documentación oficial, foros de la comunidad y repositorios de GitHub en una libreta, el agente consulta primero esta fuente antes de recurrir a la web. Esto quedó demostrado cuando Claude resolvió un problema de migración de middleware obsoleto utilizando solo información estructurada de la libreta. El proceso resulta en respuestas más directas y evita la distracción con datos web poco fiables o irrelevantes. Además, se menciona que estas plantillas y comandos están disponibles para la comunidad en su plataforma AI Labs Pro.

Documentación Viva y Colaboración entre Agentes

Se discute la práctica de subir toda la documentación inicial del proyecto a NotebookLM para crear un entorno de información fiable. Esto no solo beneficia a Claude, sino que permite que otros agentes como Cursor o Gemini CLI utilicen la misma base de conocimientos. Cada agente puede realizar consultas específicas a través de la herramienta NLM para construir su contexto según la tarea asignada. Esta infraestructura permite una colaboración fluida entre múltiples herramientas de IA que "beben" de la misma fuente de verdad. Además, facilita que cualquier persona con acceso pueda chatear con la documentación para resolver dudas de manera independiente.

Visualizaciones para Agentes y Seguridad Avanzada

La sección final muestra cómo las visualizaciones exportadas en formatos como JSON o CSV ayudan a los agentes a orientarse en el código sin navegar por todo el sistema de archivos. El video culmina con un caso de uso de seguridad, donde se creó un manual basado en guías de OWASP y bases de datos CVE dentro de NotebookLM. Al realizar un chequeo de seguridad, el agente pudo identificar un error grave de coma flotante en transacciones financieras gracias a esta base de conocimientos. El presentador concluye enfatizando que fundamentar a la IA en fuentes adecuadas es la clave para un desarrollo profesional y seguro. Se cierra el video invitando a los espectadores a apoyar el canal para seguir recibiendo contenido de alto valor técnico.

Community Posts

View all posts