Claude Code + LightRAG = IMPARABLE

CChase AI
컴퓨터/소프트웨어창업/스타트업AI/미래기술

Transcript

00:00:00la muerte de RAG ha sido muy exagerada.
00:00:03Sí, sé que los modelos de lenguaje grandes como Opus 4.6
00:00:05han mejorado mucho últimamente en el manejo de contextos grandes.
00:00:09Pero si crees que eso significa que nunca necesitarás RAG,
00:00:12vas a chocar contra un muro
00:00:14del que no podrás salir solo con prompts.
00:00:16Así que hoy voy a explicar cuándo necesitas RAG,
00:00:19qué tipo de RAG funciona realmente en 2026
00:00:22porque el panorama ha cambiado muchísimo en el último año,
00:00:25y te voy a mostrar cómo conectar Claude Code
00:00:28a tu sistema RAG,
00:00:30además de darte algunas habilidades que podrás aprovechar.
00:00:32Así que el objetivo de hoy es darte esto,
00:00:35un sistema Graph RAG construido sobre LightRAG
00:00:38que podemos usar con Claude Code.
00:00:40Y más importante, esto nos va a dar un sistema
00:00:43que podemos usar cuando necesitemos usar IA
00:00:45con corpus de documentos gigantescos, ¿verdad?
00:00:49No solo cinco documentos, ni solo 10 documentos
00:00:51como verás en la demo,
00:00:52sino 500 documentos, 1000 documentos,
00:00:55porque no basta con confiar solo
00:00:57en la ventana de contexto que trae Claude Code,
00:00:59o cualquier otro LLM.
00:01:01Porque cuando empiezas a tener una escala enorme,
00:01:03lo cual se ve en muchas empresas
00:01:05o incluso en negocios más pequeños,
00:01:06tener un sistema RAG como este es más barato y rápido
00:01:10que tu búsqueda agéntica estándar.
00:01:12Con eso en mente,
00:01:13tener la habilidad de poder crear
00:01:14este tipo de sistemas RAG es muy importante,
00:01:16pero por suerte es bastante sencillo.
00:01:18Y como acabo de mencionar,
00:01:19estaremos usando LightRAG hoy.
00:01:21Este es un repo de código abierto que me encanta.
00:01:25Ha existido por un tiempo,
00:01:26y es algo que se ha actualizado una y otra vez.
00:01:28Es capaz de competir con sistemas
00:01:30Graph RAG más sofisticados como los de Microsoft
00:01:32a literalmente una pequeña fracción del costo.
00:01:35Así que es el lugar perfecto para probar
00:01:37estos conceptos de Graph RAG si nunca los has usado.
00:01:40Pero para sacar el máximo provecho de LightRAG,
00:01:43necesitamos entender cómo funciona RAG a nivel básico,
00:01:46porque el panorama de RAG ha cambiado.
00:01:48Lo que hacíamos a finales de 2024 y principios de 2025
00:01:51era lo que se llama "RAG ingenuo", el nivel más básico.
00:01:54¿Recuerdan todas esas automatizaciones de n8n donde decíamos:
00:01:56"Oye, vayamos a Pinecone y a Supabase"?
00:01:58Eso era RAG ingenuo.
00:02:00Eso ya no funciona.
00:02:02Eso ya no es suficiente.
00:02:03Tenemos que usar versiones más sofisticadas de RAG,
00:02:06pero primero necesitamos entender los fundamentos.
00:02:08Hagamos un repaso rápido de qué es RAG
00:02:12y cómo funciona antes de sumergirnos en la configuración de LightRAG.
00:02:14RAG: generación aumentada por recuperación.
00:02:18La forma en que funciona es que primero empiezo
00:02:20con algún tipo de documento, ¿verdad?
00:02:22Y voy a tener miles de estos
00:02:25en un sistema RAG robusto.
00:02:27Pero lo que sucede es que tengo este documento
00:02:29que quiero que entre en mi sistema RAG,
00:02:31dentro de una base de datos vectorial.
00:02:34Bueno, lo que ocurre
00:02:38no es que el documento simplemente se lance a la base de datos,
00:02:40como si fuera algún tipo de sistema de Google Drive.
00:02:41Lo que sucede es que el documento pasa por un modelo de incrustación
00:02:44y luego se convierte en un vector.
00:02:46Pero más allá de eso,
00:02:47el documento no entra como una sola pieza gigante.
00:02:50Se divide en fragmentos.
00:02:51Imaginen que tenemos este documento de una página
00:02:54y se divide en el fragmento uno, el dos y el tres.
00:02:59Cada uno de estos fragmentos se convierte en vectores,
00:03:03que es solo un punto en un gráfico,
00:03:05un punto en una base de datos vectorial.
00:03:06El modelo de incrustación es el que hace esta fragmentación por nosotros.
00:03:09Se encarga del proceso de tomar este documento,
00:03:11descifrar de qué trata,
00:03:13y luego convertirlo en un punto en este gráfico.
00:03:16Así que el documento se fragmenta,
00:03:18pasa por el modelo de incrustación,
00:03:20y luego nuestro documento se convierte en un vector en este gráfico.
00:03:24Ahora, este es un gráfico tridimensional.
00:03:27En realidad, tiene miles de dimensiones,
00:03:30pero piénsenlo como un gráfico tridimensional por ahora.
00:03:33Ahora, imaginen que este documento trataba sobre barcos de guerra.
00:03:36Bien, y cada vector se convirtió en un fragmento
00:03:39sobre barcos de guerra.
00:03:40Bueno, ¿a dónde va a ir?
00:03:41Irá aquí, junto a botes y embarcaciones,
00:03:43obviamente, y se convertirá en su propio pequeño vector.
00:03:45Y por vector, me refiero a que
00:03:46se le asigna una serie de números que lo representan.
00:03:50Pueden ver eso aquí con los plátanos.
00:03:53Un plátano es 0.52, 5.12 y 9.31, y así sucesivamente.
00:03:57Esto sigue por miles de números.
00:04:00Así que nuestro barquito de por aquí es como uno, dos, tres,
00:04:05punto, punto, punto, por siempre jamás.
00:04:07Bastante fácil.
00:04:08Obviamente, no estará junto a plátanos y manzanas,
00:04:10pero ese es el proceso del documento a la incrustación,
00:04:14así como la fragmentación.
00:04:15Ahora, digamos que estás aquí, ¿de acuerdo?
00:04:18Eres nuestro personajito feliz de aquí,
00:04:20y le haces al modelo de lenguaje grande
00:04:21una pregunta sobre barcos de guerra.
00:04:24Bueno, esa pregunta en este escenario del sistema RAG
00:04:27también se va a convertir en un vector.
00:04:30Así que tu pregunta, ya sabes, el LLM la analiza,
00:04:34y le asigna una serie de números
00:04:35que también corresponden a algún tipo de vector
00:04:38en esta base de datos, ¿vale?
00:04:41Y lo que va a hacer es comparar
00:04:43cuál es el vector de tu pregunta
00:04:45con los otros vectores en el gráfico.
00:04:49Busca lo que se llama similitud de coseno,
00:04:51pero lo único que está haciendo realmente es decir:
00:04:53"Oye, la pregunta trataba sobre esto".
00:04:55"Estamos asignando estos números".
00:04:56¿Qué vectores están más cerca?
00:04:58¿Qué números están más cerca de esa pregunta?
00:05:00Bueno, será este sobre barcos de guerra
00:05:02y probablemente sobre botes y embarcaciones.
00:05:04Así que ahora va a recuperar todos esos vectores
00:05:08con toda su información,
00:05:10y va a aumentar la respuesta que genera para ti,
00:05:13de ahí: generación aumentada por recuperación.
00:05:16Así que en lugar de que el modelo de lenguaje
00:05:17dependa puramente de sus datos de entrenamiento,
00:05:19puede entrar en la base de datos vectorial,
00:05:22tomar los vectores relevantes,
00:05:24traerlos de vuelta y darte tu respuesta sobre barcos de guerra.
00:05:27Así es como funciona RAG, ¿verdad?
00:05:29Ingesta de documentos, fragmentos convertidos en vector.
00:05:32El vector se compara con la pregunta que se hace,
00:05:35trae los más cercanos, y ¡tachán!, RAG.
00:05:39Y eso es RAG ingenuo,
00:05:40y en realidad eso no funciona muy bien que digamos.
00:05:44Así que personas más inteligentes que tú y yo
00:05:46han ideado mejores formas de hacer esto,
00:05:49como la búsqueda híbrida, Graph RAG y RAG agéntico.
00:05:53Hoy nos vamos a centrar en Graph RAG.
00:05:55Ahora, Graph RAG pasa por el mismo proceso.
00:05:57Vas a seguir teniendo ese documento.
00:05:58Se seguirá fragmentando.
00:05:59Se seguirá poniendo en esta base de datos vectorial plana,
00:06:03pero va a hacer otra cosa.
00:06:05También va a crear este grafo de conocimiento.
00:06:07Va a crear esta cosa loca.
00:06:08Entonces, ¿qué es todo esto?
00:06:09¿Qué son todos estos vectores y líneas?
00:06:11¿Qué significa esto en realidad?
00:06:12Bueno, todos estos vectores, estos circulitos,
00:06:14son lo que se conoce como entidades.
00:06:17Y las líneas que conectan dos entidades
00:06:21son una arista o una relación.
00:06:23Volviendo a nuestro ejemplo del documento,
00:06:25imaginen que este documento trata sobre Anthropic y Claude Code.
00:06:28Y todo el fragmento que se extrajo decía:
00:06:31"Anthropic creó Claude Code".
00:06:35Va a tomar eso y lo va a desglosar
00:06:36en entidades y relaciones.
00:06:38¿Cuáles son las dos entidades?
00:06:39Las entidades van a ser
00:06:41Anthropic y Claude Code.
00:06:44Y la relación es: Anthropic creó Claude Code.
00:06:48Así que tienes Anthropic justo aquí
00:06:51y tienes Claude Code por aquí.
00:06:54Y puedes ver que esto es una entidad, esto es una entidad,
00:06:58y tienen una relación.
00:06:59En el grafo visual, es solo una línea,
00:07:03pero por debajo, a nivel de código,
00:07:05esa línea entre estas dos entidades
00:07:08tiene un montón de texto asociado
00:07:10que explica su relación.
00:07:11Y así, en un sistema Graph RAG,
00:07:13hace eso por cada uno de los documentos que añades.
00:07:16Imagina esto multiplicado por mil documentos.
00:07:19Esto es con 10 documentos,
00:07:21todas estas relaciones y todas estas entidades.
00:07:24Y puedes imaginar cuánto más sofisticado es eso
00:07:26que un montón de vectores aleatorios
00:07:28simplemente aislados en una base de datos vectorial.
00:07:30Y así, con un sistema como LightRAG,
00:07:33obtenemos la creación de un grafo de conocimiento
00:07:35además de la base de datos vectorial estándar.
00:07:38Hace ambas cosas en paralelo.
00:07:40Y así, cuando ahora haces una pregunta
00:07:43sobre lo que sea al modelo de lenguaje grande,
00:07:45no solo extrae ese vector específico
00:07:47que encuentra más cercano,
00:07:49sino que también irá aquí abajo y echará un vistazo a una entidad.
00:07:54Digamos que preguntaste por Anthropic.
00:07:56Bueno, ahora va a recorrer las relaciones,
00:07:59las aristas, y encontrará todo lo que considere relevante.
00:08:03Lo que esto significa para ti, el usuario,
00:08:06con un sistema Graph RAG,
00:08:08ahora puedo hacer preguntas mucho más profundas,
00:08:11no solo sobre un documento
00:08:13y esencialmente hacer un "Control F"
00:08:15para todo tipo de propósitos.
00:08:17Ahora puedo preguntar cómo se relacionan
00:08:19diferentes documentos, teorías e ideas entre sí
00:08:21porque esas relaciones están mapeadas, ¿verdad?
00:08:24De esto se trata todo esto.
00:08:25Se trata de tomar información dispar y conectarla.
00:08:30Ese es el poder de Graph RAG.
00:08:32Ese es el poder de LightRAG.
00:08:33Y eso es lo que vamos a aprender hoy.
00:08:35Así que, instalar y usar LightRAG
00:08:37es tan fácil como quieras que sea.
00:08:40Te voy a mostrar la forma más sencilla
00:08:42donde simplemente usaremos Claude Code.
00:08:44Le daremos la URL de LightRAG,
00:08:48y le diremos: "Oye, configura esto por nosotros".
00:08:50Y básicamente hará todo.
00:08:52En ese escenario, solo necesitaremos algunas cosas.
00:08:55Como viste en el desglose de cómo funciona RAG,
00:08:58necesitamos un modelo de incrustación (embedding).
00:08:59Así que eso va a requerir una API.
00:09:02Sugiero usar OpenAI.
00:09:04Tienen un modelo de incrustación muy eficaz.
00:09:07Por lo tanto, necesitarás una clave de OpenAI.
00:09:09Tienes la posibilidad con LightRAG
00:09:11de hacer que esto sea algo totalmente local.
00:09:14Podrías tener un modelo local a través de Ollama
00:09:17haciendo todos los desgloses con las incrustaciones,
00:09:20así como las tareas de preguntas y respuestas.
00:09:21Entiende que esa también es una opción, ir totalmente local.
00:09:24Nosotros vamos a hacer algo intermedio.
00:09:25Configuraremos un modelo de incrustación de OpenAI
00:09:28así como el modelo que realmente hace todo el trabajo.
00:09:31Y también necesitamos Docker.
00:09:34Si nunca has usado Docker antes,
00:09:35es bastante fácil de configurar.
00:09:36Solo vas a necesitar Docker Desktop,
00:09:39descárgalo, instálalo y tenlo en ejecución
00:09:41cuando ejecutes LightRAG,
00:09:42porque va a necesitar un contenedor.
00:09:45Lo que vas a hacer ahora
00:09:46es abrir Claude Code
00:09:47y decirle: clona el repositorio de LightRAG,
00:09:50escribe el archivo .env configurado para OpenAI
00:09:53con gpt-4o-mini y text-embedding-3-large,
00:09:56usa todo el almacenamiento local por defecto
00:09:58y inícialo con Docker Compose,
00:10:00y luego dale el enlace a LightRAG.
00:10:02Si haces eso, hará todo por ti.
00:10:06Pondré este prompt dentro de la comunidad gratuita de School,
00:10:10el enlace a eso está en la descripción.
00:10:12Además, lo que habrá allí,
00:10:13y te lo mostraré en un momento,
00:10:15son algunas habilidades relacionadas con Claude Code y LightRAG
00:10:17para que sea más fácil controlarlo desde Claude Code.
00:10:19Así que también podrás encontrar eso allí.
00:10:22Y ya sabías que esto venía.
00:10:22Hablando de mi escuela,
00:10:24publicidad rápida para la Masterclass de Claude Code,
00:10:25que es la mejor forma de pasar de cero a desarrollador de IA,
00:10:28especialmente si no vienes de un entorno técnico,
00:10:31el enlace está en el comentario fijado.
00:10:33Actualizo esto literalmente cada semana;
00:10:35en las últimas dos semanas,
00:10:36ya he añadido como una hora y media
00:10:38de contenido adicional.
00:10:39Así que definitivamente échale un vistazo
00:10:40si te tomas en serio dominar Claude Code
00:10:42y la IA en general.
00:10:44Pero de nuevo, si eres nuevo y esto es demasiado,
00:10:46visita la escuela gratuita
00:10:47con toneladas de excelentes recursos para ti
00:10:49si apenas estás comenzando.
00:10:50Y antes de ejecutar esto,
00:10:51asegúrate de tener Docker Desktop funcionando
00:10:53y ten lista esa clave de OpenAI
00:10:55y deja que Claude Code se ponga a trabajar.
00:10:56Una vez que Claude Code termine de instalarlo
00:10:58y añadas tu clave de OpenAI al archivo .env,
00:11:01deberías ver algo como esto.
00:11:02Primero que nada, en tu Docker Desktop,
00:11:04deberías ver un contenedor llamado LightRag funcionando.
00:11:07Y luego Claude Code también debería darte un enlace
00:11:11a tu localhost, debería ser el 9621.
00:11:13Y te llevará a una página que se ve así.
00:11:15Esta es la interfaz web para LightRag.
00:11:18Y es aquí donde podemos subir documentos,
00:11:21ver el grafo de conocimiento, recuperar cosas,
00:11:24y también podemos echar un vistazo
00:11:25a todos los diferentes puntos finales (endpoints) de la API,
00:11:28que nos serán útiles más adelante.
00:11:30Y lo que ves aquí son los documentos
00:11:31que he subido para este video.
00:11:33Subir documentos es muy, muy sencillo.
00:11:35Simplemente venimos aquí a la derecha
00:11:36donde dice "Upload", y luego los arrastras.
00:11:39Entiende que solo hay ciertos tipos de documentos
00:11:42que podemos poner aquí, ¿verdad?
00:11:43Documentos de texto, PDFs; esencialmente,
00:11:46estás limitado a documentos de texto.
00:11:49Ahora bien, hay una forma de evitar esto,
00:11:51concretamente con cosas como imágenes, gráficos y tablas
00:11:56y ese tipo de cosas.
00:11:57Hablaremos de eso al final
00:11:59porque se sale un poco del tema,
00:12:00pero aprenderemos sobre ello.
00:12:02Así que suelta los documentos que quieras aquí,
00:12:04y luego podrás ver su estado
00:12:07mientras se suben.
00:12:08Tardará un poco porque, de nuevo,
00:12:10está construyendo el grafo de conocimiento mientras lo hace.
00:12:12Así que esto puede llevar tiempo.
00:12:14Y si por alguna razón estás en la página del grafo
00:12:16porque esto puede pasar y dice algo como,
00:12:18"Oye, no cargó", o lo que sea,
00:12:19simplemente lo reinicias pulsando este botón
00:12:21aquí en la parte superior izquierda.
00:12:23Si vas a la pestaña de "Retrieval" (Recuperación),
00:12:25ahí es donde puedes hacer preguntas
00:12:27sobre tu grafo de conocimiento al modelo de lenguaje,
00:12:30que en este caso es probablemente OpenAI
00:12:31si usaste la misma clave para la incrustación.
00:12:33Y aquí a la derecha tenemos algunos parámetros.
00:12:36Honestamente, de entrada, no hay muchos que debas cambiar.
00:12:39En un segundo te mostraré cómo Claude Code puede hacerlo.
00:12:42Pero a medida que haces tus preguntas, como por ejemplo,
00:12:44tenía un montón de documentos de IA y RAG ahí.
00:12:47Dije: "Oye, ¿cuál es el panorama completo de costos
00:12:48de ejecutar RAG en 2026?"
00:12:50Me da una respuesta bastante sofisticada.
00:12:53Y además de eso, también te da las referencias
00:12:56de todo lo que está haciendo, ¿verdad?
00:12:57Mira el cuatro, el tres aquí, el dos,
00:13:00porque al final de la página,
00:13:01realmente te dará las referencias
00:13:03de los documentos que tomó.
00:13:05Y obviamente dentro de nuestro grafo de conocimiento,
00:13:07explicamos las entidades y las relaciones.
00:13:09Si hago clic en una de estas entidades como OpenAI, por ejemplo,
00:13:12puedo ver algunas de las propiedades.
00:13:14Así que hace más que solo extraer relaciones y entidades
00:13:17en el proceso de incrustación con LightRag.
00:13:19En realidad va un poco más profundo y dice:
00:13:20"Muy bien, ¿qué tipo de entidad es?
00:13:22¿Es una organización o una persona?"
00:13:25Tiene los archivos específicos que tomó,
00:13:27así como los IDs de los fragmentos (chunking).
00:13:29Y luego puedes ver las relaciones reales
00:13:31abajo en la parte inferior derecha.
00:13:32Moveré esto por un segundo.
00:13:33Aquí abajo en la esquina inferior derecha,
00:13:35si no puedes verlo visualmente
00:13:36porque puede amontonarse un poco en el grafo,
00:13:40puedes simplemente hacer clic aquí
00:13:41y también te llevará a ellas.
00:13:43Esta API del servidor es la que vamos a usar
00:13:46para conectar realmente esto a Claude Code.
00:13:48Porque por genial que sea esto,
00:13:50no voy a estar sentado aquí
00:13:51cada vez que quiera hacer una pregunta
00:13:53a mi grafo de conocimiento vía la pestaña de recuperación.
00:13:56Eso es demasiado molesto.
00:13:57En su lugar, simplemente usaremos estas APIs.
00:14:00Ahora, cada una de estas APIs,
00:14:03con su descripción, sus parámetros y demás,
00:14:05cada una de ellas puede convertirse en una habilidad (skill).
00:14:08Y eso es lo que estoy a punto de hacer y mostrarte hoy.
00:14:11De esa manera, cuando quieras que Claude Code use LightRag,
00:14:15bueno, simplemente vamos a Claude Code, donde sea que estemos,
00:14:17y decimos: "Oye, quiero usar la habilidad de consulta de LightRag
00:14:19y hacer la pregunta tal y cual".
00:14:22Es lo mismo que si estuvieras aquí
00:14:23en la pestaña de recuperación y hicieras tu pregunta.
00:14:26Y mejor aún, Claude Code tomará la respuesta
00:14:28que te dé y la resumirá,
00:14:30porque estas respuestas pueden ser muy detalladas
00:14:32de entrada cuando se trata de LightRag.
00:14:34Pero si solo quieres la respuesta en bruto,
00:14:36también puedes configurar eso.
00:14:37El punto es que, aunque esto tiene una interfaz web,
00:14:40realmente nunca tienes que interactuar con ella
00:14:41si no quieres.
00:14:42Y es muy fácil traerlo
00:14:44a nuestro ecosistema de Claude Code.
00:14:46Las cuatro grandes habilidades que creo que más usarás
00:14:48son query, upload, explore y status.
00:14:51Las cuatro estarán dentro de la escuela gratuita también.
00:14:55¿Pero qué estarás haciendo principalmente?
00:14:56Estarás añadiendo nuevos documentos
00:14:58y estarás haciendo preguntas sobre esos documentos.
00:15:01Y probablemente querrás saber,
00:15:02"Oye, ¿qué puse realmente ahí?"
00:15:04Porque después de tener toneladas de documentos,
00:15:05querrás evitar poner los mismos
00:15:07una y otra y otra vez.
00:15:08Así que si hago la misma pregunta dentro de Claude Code,
00:15:12acabo de invocar la habilidad de consulta de LightRag,
00:15:14esta envía la solicitud a LightRag,
00:15:18que, de nuevo, está alojado en nuestra computadora,
00:15:21se está ejecutando dentro de ese contenedor Docker,
00:15:22y va a traer la respuesta de vuelta.
00:15:24Ahora, no estás limitado a este sistema semi-local.
00:15:28Si eres alguien que está escalando muy, muy fuerte
00:15:30con LightRAG, puedes alojar esto
00:15:33en un servidor Postgres estándar.
00:15:36Tienes muchas opciones, podrías usar algo como Neon.
00:15:38Así que cubre todo el espectro.
00:15:40Puedes ir totalmente local o puedes subir todo esto
00:15:43a la nube si así lo deseas también.
00:15:44LightRAG es muy, muy personalizable.
00:15:46Y aquí está la respuesta que devolvió Clod Code,
00:15:48que de nuevo, es un resumen de la respuesta bruta
00:15:52que nos dio LightRAG, y también cita sus fuentes.
00:15:55También le pedí la respuesta bruta
00:15:57porque también puedes obtenerla,
00:15:58ya que simplemente se la devuelve a Clod Code
00:16:00en una respuesta JSON.
00:16:02Así que eso es todo.
00:16:04Y de nuevo, también tiene las referencias si las quieres.
00:16:07Como acabas de ver, es super fácil instalar LightRAG
00:16:10y muy sencillo integrarlo en tu flujo de trabajo de Clod Code.
00:16:14Ahora la pregunta es, "Vale, Chase, suena genial".
00:16:18"Entiendo conceptualmente que si tengo un montón de documentos,
00:16:20tal vez debería estar usando esto".
00:16:22Bueno, ¿dónde está el límite?
00:16:23¿Cuándo debería empezar a integrar LightRAG?
00:16:26Bueno, no hay un número exacto para esto.
00:16:28La zona gris es, yo diría, entre unas 500
00:16:33y 2000 páginas de documentos.
00:16:36No quiero decir solo documentos
00:16:37porque quién sabe qué tamaño tendrán,
00:16:39pero digamos de 500 a 2000 páginas de texto.
00:16:42En ese punto, a las 2000, estás empezando
00:16:44a entrar en el millón de tokens.
00:16:47Más allá de eso, probablemente tenga sentido seguro
00:16:50empezar a integrar LightRAG,
00:16:52porque la cuestión es la forma en que RAG está configurado,
00:16:54va a ser más barato y rápido hacer eso
00:16:57que simplemente confiar en el grep estándar de Clod Code.
00:17:00El grep asistido por agente, la forma en que Clod Code busca archivos
00:17:03ya es genial de por sí.
00:17:04Hay una razón por la que Clod Code eligió hacerlo así.
00:17:07Sin embargo, no fue bajo el supuesto de que tuvieras 2000 páginas
00:17:12de documentos o 4000 o 5000, ¿verdad?
00:17:14Hay un límite superior.
00:17:16Lo bueno es que no tienes que tener necesariamente
00:17:19esa decisión grabada en piedra; como viste,
00:17:22es muy fácil de implementar.
00:17:24Así que simplemente experimenta.
00:17:26Si sientes que tienes muchísimos documentos y dices:
00:17:28"Oye, ¿deberíamos estar usando RAG a estas alturas?".
00:17:30Bueno, no lo sé, pruébalo.
00:17:32No se tarda mucho en hacerlo.
00:17:34La parte más pesada es el proceso de incrustación (embedding).
00:17:36Eso puede tardar un poco, sin duda, pero no es algo debilitante.
00:17:40Y el costo no es una locura, especialmente con LightRAG.
00:17:43Si comparas esto de nuevo con otros sistemas de Graph RAG
00:17:45como Microsoft GraphRAG, esto es un pequeño,
00:17:48pequeño porcentaje del costo.
00:17:49Y con tamaños de documentos muy grandes,
00:17:52el costo con RAG frente al costo con algo como grep
00:17:56es del orden de mil veces más barato.
00:17:58Hubo un estudio realizado el verano pasado
00:18:04que decía que era 1250 veces más barato usar RAG
00:18:07en ese tipo de situaciones.
00:18:08Puedes verlo justo aquí con RAG textual
00:18:10frente a LLM textual, así como el tiempo de respuesta real.
00:18:14Ahora, con total sinceridad, esto fue de julio del año pasado.
00:18:19Así que los modelos han cambiado.
00:18:20Dudo mucho que sea una diferencia tan abismal
00:18:23cuando comparamos RAG con situaciones de texto estándar.
00:18:26Y esto también fue con un Gemini 2.0.
00:18:28No estábamos hablando de un arnés.
00:18:29Así que muchas cosas han cambiado,
00:18:31¿pero han cambiado tanto como para cerrar la brecha de 1250X?
00:18:36Tal vez sí, tal vez no.
00:18:39No lo creo.
00:18:40De cualquier manera, simplemente pruébalo.
00:18:42No creo que haya mucho que perder.
00:18:44Lo otro con LightRAG es la idea de que,
00:18:46"Oye, si quiero subir documentos"...
00:18:48Hablamos de esto un poco antes.
00:18:49¿Qué hacemos si de nuevo tenemos tablas, gráficos,
00:18:53cosas que no son texto?
00:18:54¿Puede LightRAG manejar esto?
00:18:57No exactamente, pero podemos solucionarlo.
00:18:59Y la respuesta es "RAG Anything",
00:19:02de los mismos creadores de LightRAG.
00:19:04Y esto es algo que esencialmente puede ser multimodal.
00:19:07Y es algo que prácticamente podemos conectar
00:19:09directamente encima de LightRAG.
00:19:10Ahora, odio decepcionarlos,
00:19:13pero eso va a quedar fuera de hoy,
00:19:15fuera del alcance del video de hoy.
00:19:17Sin embargo, en el video de mañana,
00:19:18¿qué creen que vamos a hacer?
00:19:19Mañana, vamos a revisar RAG Anything
00:19:22y mostrar esencialmente cómo puedes integrarlo
00:19:25en lo que construimos con LightRAG.
00:19:27Así que será un gran combo de uno-dos.
00:19:28Así que si eso es algo que les interesa,
00:19:31denle a me gusta y suscríbanse,
00:19:32porque vamos a verlo mañana.
00:19:34Y con eso dicho,
00:19:35aquí es donde vamos a ir terminando.
00:19:39Espero que lo hayan disfrutado.
00:19:41Este es también mi primer video con esta nueva configuración de cámara.
00:19:43La iluminación, ya noto que no está,
00:19:46no está exactamente donde quería que estuviera.
00:19:48Así que pido disculpas por todo eso.
00:19:49Todavía estoy ajustando los detalles,
00:19:50solo me alegra que funcionara después de todo
00:19:52y que la cámara no se sobrecalentara en medio de esto.
00:19:55Pero sí, todas las habilidades están dentro de la escuela gratuita.
00:19:58Lo de RAG es super interesante, especialmente LightRAG.
00:20:01Ha sido un gran producto.
00:20:02Lo he estado usando por bastante tiempo.
00:20:03Así que 100%, 100% echen un vistazo a esto.
00:20:06Y es tan fácil de integrar
00:20:07dentro de Clod Code como vieron.
00:20:08Así que miren la escuela gratuita para las habilidades,
00:20:12así como el prompt si lo necesitan.
00:20:14Para ser totalmente honesto,
00:20:15si simplemente apuntas Clod Code a LightRAG,
00:20:16lo configurará perfectamente por su cuenta.
00:20:19Pero aparte de eso,
00:20:20asegúrense de echar un vistazo a Chase AI Plus
00:20:21si quieren poner sus manos en esa masterclass.
00:20:24Y nos vemos por ahí.

Key Takeaway

La combinación de LightRAG y Claude Code permite procesar corpus documentales masivos mediante un grafo de conocimiento que supera las limitaciones de costo y precisión de la ventana de contexto de los modelos de lenguaje estándar.

Highlights

La implementación de Graph RAG mediante LightRAG reduce drásticamente los costos operativos en comparación con soluciones corporativas como Microsoft GraphRAG.

El uso de sistemas RAG resulta hasta 1250 veces más barato y rápido que las búsquedas exhaustivas en modelos de lenguaje cuando el corpus supera las 2000 páginas de texto.

LightRAG genera simultáneamente una base de datos vectorial y un grafo de conocimiento que mapea entidades y relaciones para responder preguntas conceptuales complejas.

La integración con Claude Code se realiza clonando el repositorio de LightRAG y configurando un entorno Docker con modelos de OpenAI como gpt-4o-mini.

El umbral crítico para transicionar de búsquedas simples (grep) a un sistema RAG se sitúa entre las 500 y 2000 páginas de documentos o un millón de tokens.

Las habilidades de consulta, carga, exploración y estado permiten controlar LightRAG directamente desde la interfaz de comandos de Claude Code a través de su API.

Timeline

Necesidad de RAG en 2026

  • Límites de la ventana de contexto
  • Eficiencia en corpus a gran escala

A pesar de las mejoras en modelos como Opus 4.6, confiar únicamente en el contexto directo provoca fallos al manejar cientos de documentos. Un sistema RAG robusto es indispensable para procesar entre 500 y 1000 documentos de forma económica.

Evolución del RAG Ingenuo al Graph RAG

  • Mecánica de la fragmentación y vectores
  • Obsolecencia del RAG básico

El sistema divide documentos en fragmentos que se convierten en vectores numéricos mediante un modelo de incrustación. La búsqueda por similitud de coseno recupera la información más cercana a la consulta para aumentar la respuesta del modelo.

Arquitectura de LightRAG y Grafos de Conocimiento

  • Entidades y relaciones
  • Conexión de ideas disparates

Graph RAG identifica entidades y crea aristas que definen sus relaciones. Esto permite realizar consultas sobre cómo se conectan diferentes teorías e ideas entre sí, superando la simple búsqueda de palabras clave.

Configuración Técnica con Claude Code y Docker

  • Requisitos de API y Docker Desktop
  • Automatización del despliegue

La instalación requiere Docker y llaves de API de OpenAI para el modelo text-embedding-3-large. Claude Code automatiza la clonación del repositorio, la creación del archivo .env y el inicio del contenedor mediante Docker Compose.

Interfaz y Flujo de Trabajo Operativo

  • Gestión de documentos en Localhost 9621
  • Conversión de endpoints en habilidades

LightRAG ofrece una interfaz web para cargar archivos y visualizar el grafo. Sin embargo, la integración óptima utiliza los endpoints de la API como 'skills' dentro de Claude Code para consultar y resumir datos sin salir de la terminal.

Análisis de Costos y Escalabilidad

  • Comparativa de ahorro 1250x
  • Flexibilidad de alojamiento

El sistema es altamente personalizable, permitiendo desde ejecuciones locales con Ollama hasta despliegues en la nube con Postgres (Neon). El uso de RAG textual es significativamente más barato que procesar tokens directamente en el LLM en situaciones de alta densidad documental.

Multimodalidad y Futuro de la Herramienta

  • Solución RAG Anything para datos no textuales
  • Soporte de tablas y gráficos

Para manejar información que no es puramente texto, como gráficos o tablas, se requiere el complemento RAG Anything. Este permite una capacidad multimodal que se integra sobre la estructura existente de LightRAG.

Community Posts

View all posts