00:00:00la muerte de RAG ha sido muy exagerada.
00:00:03Sí, sé que los modelos de lenguaje grandes como Opus 4.6
00:00:05han mejorado mucho últimamente en el manejo de contextos grandes.
00:00:09Pero si crees que eso significa que nunca necesitarás RAG,
00:00:12vas a chocar contra un muro
00:00:14del que no podrás salir solo con prompts.
00:00:16Así que hoy voy a explicar cuándo necesitas RAG,
00:00:19qué tipo de RAG funciona realmente en 2026
00:00:22porque el panorama ha cambiado muchísimo en el último año,
00:00:25y te voy a mostrar cómo conectar Claude Code
00:00:28a tu sistema RAG,
00:00:30además de darte algunas habilidades que podrás aprovechar.
00:00:32Así que el objetivo de hoy es darte esto,
00:00:35un sistema Graph RAG construido sobre LightRAG
00:00:38que podemos usar con Claude Code.
00:00:40Y más importante, esto nos va a dar un sistema
00:00:43que podemos usar cuando necesitemos usar IA
00:00:45con corpus de documentos gigantescos, ¿verdad?
00:00:49No solo cinco documentos, ni solo 10 documentos
00:00:51como verás en la demo,
00:00:52sino 500 documentos, 1000 documentos,
00:00:55porque no basta con confiar solo
00:00:57en la ventana de contexto que trae Claude Code,
00:00:59o cualquier otro LLM.
00:01:01Porque cuando empiezas a tener una escala enorme,
00:01:03lo cual se ve en muchas empresas
00:01:05o incluso en negocios más pequeños,
00:01:06tener un sistema RAG como este es más barato y rápido
00:01:10que tu búsqueda agéntica estándar.
00:01:12Con eso en mente,
00:01:13tener la habilidad de poder crear
00:01:14este tipo de sistemas RAG es muy importante,
00:01:16pero por suerte es bastante sencillo.
00:01:18Y como acabo de mencionar,
00:01:19estaremos usando LightRAG hoy.
00:01:21Este es un repo de código abierto que me encanta.
00:01:25Ha existido por un tiempo,
00:01:26y es algo que se ha actualizado una y otra vez.
00:01:28Es capaz de competir con sistemas
00:01:30Graph RAG más sofisticados como los de Microsoft
00:01:32a literalmente una pequeña fracción del costo.
00:01:35Así que es el lugar perfecto para probar
00:01:37estos conceptos de Graph RAG si nunca los has usado.
00:01:40Pero para sacar el máximo provecho de LightRAG,
00:01:43necesitamos entender cómo funciona RAG a nivel básico,
00:01:46porque el panorama de RAG ha cambiado.
00:01:48Lo que hacíamos a finales de 2024 y principios de 2025
00:01:51era lo que se llama "RAG ingenuo", el nivel más básico.
00:01:54¿Recuerdan todas esas automatizaciones de n8n donde decíamos:
00:01:56"Oye, vayamos a Pinecone y a Supabase"?
00:01:58Eso era RAG ingenuo.
00:02:00Eso ya no funciona.
00:02:02Eso ya no es suficiente.
00:02:03Tenemos que usar versiones más sofisticadas de RAG,
00:02:06pero primero necesitamos entender los fundamentos.
00:02:08Hagamos un repaso rápido de qué es RAG
00:02:12y cómo funciona antes de sumergirnos en la configuración de LightRAG.
00:02:14RAG: generación aumentada por recuperación.
00:02:18La forma en que funciona es que primero empiezo
00:02:20con algún tipo de documento, ¿verdad?
00:02:22Y voy a tener miles de estos
00:02:25en un sistema RAG robusto.
00:02:27Pero lo que sucede es que tengo este documento
00:02:29que quiero que entre en mi sistema RAG,
00:02:31dentro de una base de datos vectorial.
00:02:34Bueno, lo que ocurre
00:02:38no es que el documento simplemente se lance a la base de datos,
00:02:40como si fuera algún tipo de sistema de Google Drive.
00:02:41Lo que sucede es que el documento pasa por un modelo de incrustación
00:02:44y luego se convierte en un vector.
00:02:46Pero más allá de eso,
00:02:47el documento no entra como una sola pieza gigante.
00:02:50Se divide en fragmentos.
00:02:51Imaginen que tenemos este documento de una página
00:02:54y se divide en el fragmento uno, el dos y el tres.
00:02:59Cada uno de estos fragmentos se convierte en vectores,
00:03:03que es solo un punto en un gráfico,
00:03:05un punto en una base de datos vectorial.
00:03:06El modelo de incrustación es el que hace esta fragmentación por nosotros.
00:03:09Se encarga del proceso de tomar este documento,
00:03:11descifrar de qué trata,
00:03:13y luego convertirlo en un punto en este gráfico.
00:03:16Así que el documento se fragmenta,
00:03:18pasa por el modelo de incrustación,
00:03:20y luego nuestro documento se convierte en un vector en este gráfico.
00:03:24Ahora, este es un gráfico tridimensional.
00:03:27En realidad, tiene miles de dimensiones,
00:03:30pero piénsenlo como un gráfico tridimensional por ahora.
00:03:33Ahora, imaginen que este documento trataba sobre barcos de guerra.
00:03:36Bien, y cada vector se convirtió en un fragmento
00:03:39sobre barcos de guerra.
00:03:40Bueno, ¿a dónde va a ir?
00:03:41Irá aquí, junto a botes y embarcaciones,
00:03:43obviamente, y se convertirá en su propio pequeño vector.
00:03:45Y por vector, me refiero a que
00:03:46se le asigna una serie de números que lo representan.
00:03:50Pueden ver eso aquí con los plátanos.
00:03:53Un plátano es 0.52, 5.12 y 9.31, y así sucesivamente.
00:03:57Esto sigue por miles de números.
00:04:00Así que nuestro barquito de por aquí es como uno, dos, tres,
00:04:05punto, punto, punto, por siempre jamás.
00:04:07Bastante fácil.
00:04:08Obviamente, no estará junto a plátanos y manzanas,
00:04:10pero ese es el proceso del documento a la incrustación,
00:04:14así como la fragmentación.
00:04:15Ahora, digamos que estás aquí, ¿de acuerdo?
00:04:18Eres nuestro personajito feliz de aquí,
00:04:20y le haces al modelo de lenguaje grande
00:04:21una pregunta sobre barcos de guerra.
00:04:24Bueno, esa pregunta en este escenario del sistema RAG
00:04:27también se va a convertir en un vector.
00:04:30Así que tu pregunta, ya sabes, el LLM la analiza,
00:04:34y le asigna una serie de números
00:04:35que también corresponden a algún tipo de vector
00:04:38en esta base de datos, ¿vale?
00:04:41Y lo que va a hacer es comparar
00:04:43cuál es el vector de tu pregunta
00:04:45con los otros vectores en el gráfico.
00:04:49Busca lo que se llama similitud de coseno,
00:04:51pero lo único que está haciendo realmente es decir:
00:04:53"Oye, la pregunta trataba sobre esto".
00:04:55"Estamos asignando estos números".
00:04:56¿Qué vectores están más cerca?
00:04:58¿Qué números están más cerca de esa pregunta?
00:05:00Bueno, será este sobre barcos de guerra
00:05:02y probablemente sobre botes y embarcaciones.
00:05:04Así que ahora va a recuperar todos esos vectores
00:05:08con toda su información,
00:05:10y va a aumentar la respuesta que genera para ti,
00:05:13de ahí: generación aumentada por recuperación.
00:05:16Así que en lugar de que el modelo de lenguaje
00:05:17dependa puramente de sus datos de entrenamiento,
00:05:19puede entrar en la base de datos vectorial,
00:05:22tomar los vectores relevantes,
00:05:24traerlos de vuelta y darte tu respuesta sobre barcos de guerra.
00:05:27Así es como funciona RAG, ¿verdad?
00:05:29Ingesta de documentos, fragmentos convertidos en vector.
00:05:32El vector se compara con la pregunta que se hace,
00:05:35trae los más cercanos, y ¡tachán!, RAG.
00:05:39Y eso es RAG ingenuo,
00:05:40y en realidad eso no funciona muy bien que digamos.
00:05:44Así que personas más inteligentes que tú y yo
00:05:46han ideado mejores formas de hacer esto,
00:05:49como la búsqueda híbrida, Graph RAG y RAG agéntico.
00:05:53Hoy nos vamos a centrar en Graph RAG.
00:05:55Ahora, Graph RAG pasa por el mismo proceso.
00:05:57Vas a seguir teniendo ese documento.
00:05:58Se seguirá fragmentando.
00:05:59Se seguirá poniendo en esta base de datos vectorial plana,
00:06:03pero va a hacer otra cosa.
00:06:05También va a crear este grafo de conocimiento.
00:06:07Va a crear esta cosa loca.
00:06:08Entonces, ¿qué es todo esto?
00:06:09¿Qué son todos estos vectores y líneas?
00:06:11¿Qué significa esto en realidad?
00:06:12Bueno, todos estos vectores, estos circulitos,
00:06:14son lo que se conoce como entidades.
00:06:17Y las líneas que conectan dos entidades
00:06:21son una arista o una relación.
00:06:23Volviendo a nuestro ejemplo del documento,
00:06:25imaginen que este documento trata sobre Anthropic y Claude Code.
00:06:28Y todo el fragmento que se extrajo decía:
00:06:31"Anthropic creó Claude Code".
00:06:35Va a tomar eso y lo va a desglosar
00:06:36en entidades y relaciones.
00:06:38¿Cuáles son las dos entidades?
00:06:39Las entidades van a ser
00:06:41Anthropic y Claude Code.
00:06:44Y la relación es: Anthropic creó Claude Code.
00:06:48Así que tienes Anthropic justo aquí
00:06:51y tienes Claude Code por aquí.
00:06:54Y puedes ver que esto es una entidad, esto es una entidad,
00:06:58y tienen una relación.
00:06:59En el grafo visual, es solo una línea,
00:07:03pero por debajo, a nivel de código,
00:07:05esa línea entre estas dos entidades
00:07:08tiene un montón de texto asociado
00:07:10que explica su relación.
00:07:11Y así, en un sistema Graph RAG,
00:07:13hace eso por cada uno de los documentos que añades.
00:07:16Imagina esto multiplicado por mil documentos.
00:07:19Esto es con 10 documentos,
00:07:21todas estas relaciones y todas estas entidades.
00:07:24Y puedes imaginar cuánto más sofisticado es eso
00:07:26que un montón de vectores aleatorios
00:07:28simplemente aislados en una base de datos vectorial.
00:07:30Y así, con un sistema como LightRAG,
00:07:33obtenemos la creación de un grafo de conocimiento
00:07:35además de la base de datos vectorial estándar.
00:07:38Hace ambas cosas en paralelo.
00:07:40Y así, cuando ahora haces una pregunta
00:07:43sobre lo que sea al modelo de lenguaje grande,
00:07:45no solo extrae ese vector específico
00:07:47que encuentra más cercano,
00:07:49sino que también irá aquí abajo y echará un vistazo a una entidad.
00:07:54Digamos que preguntaste por Anthropic.
00:07:56Bueno, ahora va a recorrer las relaciones,
00:07:59las aristas, y encontrará todo lo que considere relevante.
00:08:03Lo que esto significa para ti, el usuario,
00:08:06con un sistema Graph RAG,
00:08:08ahora puedo hacer preguntas mucho más profundas,
00:08:11no solo sobre un documento
00:08:13y esencialmente hacer un "Control F"
00:08:15para todo tipo de propósitos.
00:08:17Ahora puedo preguntar cómo se relacionan
00:08:19diferentes documentos, teorías e ideas entre sí
00:08:21porque esas relaciones están mapeadas, ¿verdad?
00:08:24De esto se trata todo esto.
00:08:25Se trata de tomar información dispar y conectarla.
00:08:30Ese es el poder de Graph RAG.
00:08:32Ese es el poder de LightRAG.
00:08:33Y eso es lo que vamos a aprender hoy.
00:08:35Así que, instalar y usar LightRAG
00:08:37es tan fácil como quieras que sea.
00:08:40Te voy a mostrar la forma más sencilla
00:08:42donde simplemente usaremos Claude Code.
00:08:44Le daremos la URL de LightRAG,
00:08:48y le diremos: "Oye, configura esto por nosotros".
00:08:50Y básicamente hará todo.
00:08:52En ese escenario, solo necesitaremos algunas cosas.
00:08:55Como viste en el desglose de cómo funciona RAG,
00:08:58necesitamos un modelo de incrustación (embedding).
00:08:59Así que eso va a requerir una API.
00:09:02Sugiero usar OpenAI.
00:09:04Tienen un modelo de incrustación muy eficaz.
00:09:07Por lo tanto, necesitarás una clave de OpenAI.
00:09:09Tienes la posibilidad con LightRAG
00:09:11de hacer que esto sea algo totalmente local.
00:09:14Podrías tener un modelo local a través de Ollama
00:09:17haciendo todos los desgloses con las incrustaciones,
00:09:20así como las tareas de preguntas y respuestas.
00:09:21Entiende que esa también es una opción, ir totalmente local.
00:09:24Nosotros vamos a hacer algo intermedio.
00:09:25Configuraremos un modelo de incrustación de OpenAI
00:09:28así como el modelo que realmente hace todo el trabajo.
00:09:31Y también necesitamos Docker.
00:09:34Si nunca has usado Docker antes,
00:09:35es bastante fácil de configurar.
00:09:36Solo vas a necesitar Docker Desktop,
00:09:39descárgalo, instálalo y tenlo en ejecución
00:09:41cuando ejecutes LightRAG,
00:09:42porque va a necesitar un contenedor.
00:09:45Lo que vas a hacer ahora
00:09:46es abrir Claude Code
00:09:47y decirle: clona el repositorio de LightRAG,
00:09:50escribe el archivo .env configurado para OpenAI
00:09:53con gpt-4o-mini y text-embedding-3-large,
00:09:56usa todo el almacenamiento local por defecto
00:09:58y inícialo con Docker Compose,
00:10:00y luego dale el enlace a LightRAG.
00:10:02Si haces eso, hará todo por ti.
00:10:06Pondré este prompt dentro de la comunidad gratuita de School,
00:10:10el enlace a eso está en la descripción.
00:10:12Además, lo que habrá allí,
00:10:13y te lo mostraré en un momento,
00:10:15son algunas habilidades relacionadas con Claude Code y LightRAG
00:10:17para que sea más fácil controlarlo desde Claude Code.
00:10:19Así que también podrás encontrar eso allí.
00:10:22Y ya sabías que esto venía.
00:10:22Hablando de mi escuela,
00:10:24publicidad rápida para la Masterclass de Claude Code,
00:10:25que es la mejor forma de pasar de cero a desarrollador de IA,
00:10:28especialmente si no vienes de un entorno técnico,
00:10:31el enlace está en el comentario fijado.
00:10:33Actualizo esto literalmente cada semana;
00:10:35en las últimas dos semanas,
00:10:36ya he añadido como una hora y media
00:10:38de contenido adicional.
00:10:39Así que definitivamente échale un vistazo
00:10:40si te tomas en serio dominar Claude Code
00:10:42y la IA en general.
00:10:44Pero de nuevo, si eres nuevo y esto es demasiado,
00:10:46visita la escuela gratuita
00:10:47con toneladas de excelentes recursos para ti
00:10:49si apenas estás comenzando.
00:10:50Y antes de ejecutar esto,
00:10:51asegúrate de tener Docker Desktop funcionando
00:10:53y ten lista esa clave de OpenAI
00:10:55y deja que Claude Code se ponga a trabajar.
00:10:56Una vez que Claude Code termine de instalarlo
00:10:58y añadas tu clave de OpenAI al archivo .env,
00:11:01deberías ver algo como esto.
00:11:02Primero que nada, en tu Docker Desktop,
00:11:04deberías ver un contenedor llamado LightRag funcionando.
00:11:07Y luego Claude Code también debería darte un enlace
00:11:11a tu localhost, debería ser el 9621.
00:11:13Y te llevará a una página que se ve así.
00:11:15Esta es la interfaz web para LightRag.
00:11:18Y es aquí donde podemos subir documentos,
00:11:21ver el grafo de conocimiento, recuperar cosas,
00:11:24y también podemos echar un vistazo
00:11:25a todos los diferentes puntos finales (endpoints) de la API,
00:11:28que nos serán útiles más adelante.
00:11:30Y lo que ves aquí son los documentos
00:11:31que he subido para este video.
00:11:33Subir documentos es muy, muy sencillo.
00:11:35Simplemente venimos aquí a la derecha
00:11:36donde dice "Upload", y luego los arrastras.
00:11:39Entiende que solo hay ciertos tipos de documentos
00:11:42que podemos poner aquí, ¿verdad?
00:11:43Documentos de texto, PDFs; esencialmente,
00:11:46estás limitado a documentos de texto.
00:11:49Ahora bien, hay una forma de evitar esto,
00:11:51concretamente con cosas como imágenes, gráficos y tablas
00:11:56y ese tipo de cosas.
00:11:57Hablaremos de eso al final
00:11:59porque se sale un poco del tema,
00:12:00pero aprenderemos sobre ello.
00:12:02Así que suelta los documentos que quieras aquí,
00:12:04y luego podrás ver su estado
00:12:07mientras se suben.
00:12:08Tardará un poco porque, de nuevo,
00:12:10está construyendo el grafo de conocimiento mientras lo hace.
00:12:12Así que esto puede llevar tiempo.
00:12:14Y si por alguna razón estás en la página del grafo
00:12:16porque esto puede pasar y dice algo como,
00:12:18"Oye, no cargó", o lo que sea,
00:12:19simplemente lo reinicias pulsando este botón
00:12:21aquí en la parte superior izquierda.
00:12:23Si vas a la pestaña de "Retrieval" (Recuperación),
00:12:25ahí es donde puedes hacer preguntas
00:12:27sobre tu grafo de conocimiento al modelo de lenguaje,
00:12:30que en este caso es probablemente OpenAI
00:12:31si usaste la misma clave para la incrustación.
00:12:33Y aquí a la derecha tenemos algunos parámetros.
00:12:36Honestamente, de entrada, no hay muchos que debas cambiar.
00:12:39En un segundo te mostraré cómo Claude Code puede hacerlo.
00:12:42Pero a medida que haces tus preguntas, como por ejemplo,
00:12:44tenía un montón de documentos de IA y RAG ahí.
00:12:47Dije: "Oye, ¿cuál es el panorama completo de costos
00:12:48de ejecutar RAG en 2026?"
00:12:50Me da una respuesta bastante sofisticada.
00:12:53Y además de eso, también te da las referencias
00:12:56de todo lo que está haciendo, ¿verdad?
00:12:57Mira el cuatro, el tres aquí, el dos,
00:13:00porque al final de la página,
00:13:01realmente te dará las referencias
00:13:03de los documentos que tomó.
00:13:05Y obviamente dentro de nuestro grafo de conocimiento,
00:13:07explicamos las entidades y las relaciones.
00:13:09Si hago clic en una de estas entidades como OpenAI, por ejemplo,
00:13:12puedo ver algunas de las propiedades.
00:13:14Así que hace más que solo extraer relaciones y entidades
00:13:17en el proceso de incrustación con LightRag.
00:13:19En realidad va un poco más profundo y dice:
00:13:20"Muy bien, ¿qué tipo de entidad es?
00:13:22¿Es una organización o una persona?"
00:13:25Tiene los archivos específicos que tomó,
00:13:27así como los IDs de los fragmentos (chunking).
00:13:29Y luego puedes ver las relaciones reales
00:13:31abajo en la parte inferior derecha.
00:13:32Moveré esto por un segundo.
00:13:33Aquí abajo en la esquina inferior derecha,
00:13:35si no puedes verlo visualmente
00:13:36porque puede amontonarse un poco en el grafo,
00:13:40puedes simplemente hacer clic aquí
00:13:41y también te llevará a ellas.
00:13:43Esta API del servidor es la que vamos a usar
00:13:46para conectar realmente esto a Claude Code.
00:13:48Porque por genial que sea esto,
00:13:50no voy a estar sentado aquí
00:13:51cada vez que quiera hacer una pregunta
00:13:53a mi grafo de conocimiento vía la pestaña de recuperación.
00:13:56Eso es demasiado molesto.
00:13:57En su lugar, simplemente usaremos estas APIs.
00:14:00Ahora, cada una de estas APIs,
00:14:03con su descripción, sus parámetros y demás,
00:14:05cada una de ellas puede convertirse en una habilidad (skill).
00:14:08Y eso es lo que estoy a punto de hacer y mostrarte hoy.
00:14:11De esa manera, cuando quieras que Claude Code use LightRag,
00:14:15bueno, simplemente vamos a Claude Code, donde sea que estemos,
00:14:17y decimos: "Oye, quiero usar la habilidad de consulta de LightRag
00:14:19y hacer la pregunta tal y cual".
00:14:22Es lo mismo que si estuvieras aquí
00:14:23en la pestaña de recuperación y hicieras tu pregunta.
00:14:26Y mejor aún, Claude Code tomará la respuesta
00:14:28que te dé y la resumirá,
00:14:30porque estas respuestas pueden ser muy detalladas
00:14:32de entrada cuando se trata de LightRag.
00:14:34Pero si solo quieres la respuesta en bruto,
00:14:36también puedes configurar eso.
00:14:37El punto es que, aunque esto tiene una interfaz web,
00:14:40realmente nunca tienes que interactuar con ella
00:14:41si no quieres.
00:14:42Y es muy fácil traerlo
00:14:44a nuestro ecosistema de Claude Code.
00:14:46Las cuatro grandes habilidades que creo que más usarás
00:14:48son query, upload, explore y status.
00:14:51Las cuatro estarán dentro de la escuela gratuita también.
00:14:55¿Pero qué estarás haciendo principalmente?
00:14:56Estarás añadiendo nuevos documentos
00:14:58y estarás haciendo preguntas sobre esos documentos.
00:15:01Y probablemente querrás saber,
00:15:02"Oye, ¿qué puse realmente ahí?"
00:15:04Porque después de tener toneladas de documentos,
00:15:05querrás evitar poner los mismos
00:15:07una y otra y otra vez.
00:15:08Así que si hago la misma pregunta dentro de Claude Code,
00:15:12acabo de invocar la habilidad de consulta de LightRag,
00:15:14esta envía la solicitud a LightRag,
00:15:18que, de nuevo, está alojado en nuestra computadora,
00:15:21se está ejecutando dentro de ese contenedor Docker,
00:15:22y va a traer la respuesta de vuelta.
00:15:24Ahora, no estás limitado a este sistema semi-local.
00:15:28Si eres alguien que está escalando muy, muy fuerte
00:15:30con LightRAG, puedes alojar esto
00:15:33en un servidor Postgres estándar.
00:15:36Tienes muchas opciones, podrías usar algo como Neon.
00:15:38Así que cubre todo el espectro.
00:15:40Puedes ir totalmente local o puedes subir todo esto
00:15:43a la nube si así lo deseas también.
00:15:44LightRAG es muy, muy personalizable.
00:15:46Y aquí está la respuesta que devolvió Clod Code,
00:15:48que de nuevo, es un resumen de la respuesta bruta
00:15:52que nos dio LightRAG, y también cita sus fuentes.
00:15:55También le pedí la respuesta bruta
00:15:57porque también puedes obtenerla,
00:15:58ya que simplemente se la devuelve a Clod Code
00:16:00en una respuesta JSON.
00:16:02Así que eso es todo.
00:16:04Y de nuevo, también tiene las referencias si las quieres.
00:16:07Como acabas de ver, es super fácil instalar LightRAG
00:16:10y muy sencillo integrarlo en tu flujo de trabajo de Clod Code.
00:16:14Ahora la pregunta es, "Vale, Chase, suena genial".
00:16:18"Entiendo conceptualmente que si tengo un montón de documentos,
00:16:20tal vez debería estar usando esto".
00:16:22Bueno, ¿dónde está el límite?
00:16:23¿Cuándo debería empezar a integrar LightRAG?
00:16:26Bueno, no hay un número exacto para esto.
00:16:28La zona gris es, yo diría, entre unas 500
00:16:33y 2000 páginas de documentos.
00:16:36No quiero decir solo documentos
00:16:37porque quién sabe qué tamaño tendrán,
00:16:39pero digamos de 500 a 2000 páginas de texto.
00:16:42En ese punto, a las 2000, estás empezando
00:16:44a entrar en el millón de tokens.
00:16:47Más allá de eso, probablemente tenga sentido seguro
00:16:50empezar a integrar LightRAG,
00:16:52porque la cuestión es la forma en que RAG está configurado,
00:16:54va a ser más barato y rápido hacer eso
00:16:57que simplemente confiar en el grep estándar de Clod Code.
00:17:00El grep asistido por agente, la forma en que Clod Code busca archivos
00:17:03ya es genial de por sí.
00:17:04Hay una razón por la que Clod Code eligió hacerlo así.
00:17:07Sin embargo, no fue bajo el supuesto de que tuvieras 2000 páginas
00:17:12de documentos o 4000 o 5000, ¿verdad?
00:17:14Hay un límite superior.
00:17:16Lo bueno es que no tienes que tener necesariamente
00:17:19esa decisión grabada en piedra; como viste,
00:17:22es muy fácil de implementar.
00:17:24Así que simplemente experimenta.
00:17:26Si sientes que tienes muchísimos documentos y dices:
00:17:28"Oye, ¿deberíamos estar usando RAG a estas alturas?".
00:17:30Bueno, no lo sé, pruébalo.
00:17:32No se tarda mucho en hacerlo.
00:17:34La parte más pesada es el proceso de incrustación (embedding).
00:17:36Eso puede tardar un poco, sin duda, pero no es algo debilitante.
00:17:40Y el costo no es una locura, especialmente con LightRAG.
00:17:43Si comparas esto de nuevo con otros sistemas de Graph RAG
00:17:45como Microsoft GraphRAG, esto es un pequeño,
00:17:48pequeño porcentaje del costo.
00:17:49Y con tamaños de documentos muy grandes,
00:17:52el costo con RAG frente al costo con algo como grep
00:17:56es del orden de mil veces más barato.
00:17:58Hubo un estudio realizado el verano pasado
00:18:04que decía que era 1250 veces más barato usar RAG
00:18:07en ese tipo de situaciones.
00:18:08Puedes verlo justo aquí con RAG textual
00:18:10frente a LLM textual, así como el tiempo de respuesta real.
00:18:14Ahora, con total sinceridad, esto fue de julio del año pasado.
00:18:19Así que los modelos han cambiado.
00:18:20Dudo mucho que sea una diferencia tan abismal
00:18:23cuando comparamos RAG con situaciones de texto estándar.
00:18:26Y esto también fue con un Gemini 2.0.
00:18:28No estábamos hablando de un arnés.
00:18:29Así que muchas cosas han cambiado,
00:18:31¿pero han cambiado tanto como para cerrar la brecha de 1250X?
00:18:36Tal vez sí, tal vez no.
00:18:39No lo creo.
00:18:40De cualquier manera, simplemente pruébalo.
00:18:42No creo que haya mucho que perder.
00:18:44Lo otro con LightRAG es la idea de que,
00:18:46"Oye, si quiero subir documentos"...
00:18:48Hablamos de esto un poco antes.
00:18:49¿Qué hacemos si de nuevo tenemos tablas, gráficos,
00:18:53cosas que no son texto?
00:18:54¿Puede LightRAG manejar esto?
00:18:57No exactamente, pero podemos solucionarlo.
00:18:59Y la respuesta es "RAG Anything",
00:19:02de los mismos creadores de LightRAG.
00:19:04Y esto es algo que esencialmente puede ser multimodal.
00:19:07Y es algo que prácticamente podemos conectar
00:19:09directamente encima de LightRAG.
00:19:10Ahora, odio decepcionarlos,
00:19:13pero eso va a quedar fuera de hoy,
00:19:15fuera del alcance del video de hoy.
00:19:17Sin embargo, en el video de mañana,
00:19:18¿qué creen que vamos a hacer?
00:19:19Mañana, vamos a revisar RAG Anything
00:19:22y mostrar esencialmente cómo puedes integrarlo
00:19:25en lo que construimos con LightRAG.
00:19:27Así que será un gran combo de uno-dos.
00:19:28Así que si eso es algo que les interesa,
00:19:31denle a me gusta y suscríbanse,
00:19:32porque vamos a verlo mañana.
00:19:34Y con eso dicho,
00:19:35aquí es donde vamos a ir terminando.
00:19:39Espero que lo hayan disfrutado.
00:19:41Este es también mi primer video con esta nueva configuración de cámara.
00:19:43La iluminación, ya noto que no está,
00:19:46no está exactamente donde quería que estuviera.
00:19:48Así que pido disculpas por todo eso.
00:19:49Todavía estoy ajustando los detalles,
00:19:50solo me alegra que funcionara después de todo
00:19:52y que la cámara no se sobrecalentara en medio de esto.
00:19:55Pero sí, todas las habilidades están dentro de la escuela gratuita.
00:19:58Lo de RAG es super interesante, especialmente LightRAG.
00:20:01Ha sido un gran producto.
00:20:02Lo he estado usando por bastante tiempo.
00:20:03Así que 100%, 100% echen un vistazo a esto.
00:20:06Y es tan fácil de integrar
00:20:07dentro de Clod Code como vieron.
00:20:08Así que miren la escuela gratuita para las habilidades,
00:20:12así como el prompt si lo necesitan.
00:20:14Para ser totalmente honesto,
00:20:15si simplemente apuntas Clod Code a LightRAG,
00:20:16lo configurará perfectamente por su cuenta.
00:20:19Pero aparte de eso,
00:20:20asegúrense de echar un vistazo a Chase AI Plus
00:20:21si quieren poner sus manos en esa masterclass.
00:20:24Y nos vemos por ahí.