Claude Code + LightRAG = TAK TERBENDUNG

CChase AI
Computing/SoftwareSmall Business/StartupsInternet Technology

Transcript

00:00:00kematian RAG telah sangat dibesar-besarkan.
00:00:03Ya, saya tahu model bahasa besar seperti Opus 4.6
00:00:05sudah jauh lebih baik akhir-akhir ini dalam menangani konteks besar.
00:00:09Tetapi jika Anda berpikir itu berarti Anda tidak akan butuh RAG,
00:00:12Anda akan membentur dinding
00:00:14yang tidak bisa Anda selesaikan hanya dengan prompt.
00:00:16Jadi hari ini saya akan menjelaskan kapan Anda butuh RAG,
00:00:19jenis RAG apa yang benar-benar berhasil di tahun 2026
00:00:22karena lanskapnya telah banyak berubah selama setahun terakhir,
00:00:25dan saya akan menunjukkan cara menghubungkan Cloud Code
00:00:28ke sistem RAG Anda,
00:00:30serta memberi Anda beberapa keahlian yang bisa Anda bawa pulang.
00:00:32Jadi tujuan hari ini adalah memberi Anda ini,
00:00:35sistem graph RAG yang dibangun di atas Light RAG
00:00:38yang dapat kita gunakan dengan Cloud Code.
00:00:40Dan yang lebih penting, ini akan memberi kita sebuah sistem
00:00:43yang dapat kita gunakan saat kita perlu menggunakan AI
00:00:45dengan kumpulan dokumen korpus yang sangat besar, bukan?
00:00:49Bukan hanya lima dokumen, bukan hanya 10 dokumen
00:00:51seperti yang akan Anda lihat di demo,
00:00:52tapi 500 dokumen, 1.000 dokumen,
00:00:55karena tidak cukup hanya mengandalkan
00:00:57jendela konteks bawaan Cloud Code,
00:00:59atau LLM lainnya.
00:01:01Karena ketika Anda mulai mencapai skala besar,
00:01:03yang memang terlihat di banyak perusahaan besar
00:01:05atau bahkan bisnis kecil sekalipun,
00:01:06memiliki sistem RAG seperti ini sebenarnya lebih murah dan cepat
00:01:10daripada pencarian agentic standar Anda.
00:01:12Jadi dengan pemikiran tersebut,
00:01:13memiliki keahlian untuk dapat membuat
00:01:14sistem RAG jenis ini sangatlah penting,
00:01:16tapi untungnya ini cukup sederhana.
00:01:18Dan seperti yang baru saja saya singgung,
00:01:19kita akan menggunakan Light RAG hari ini.
00:01:21Ini adalah repo sumber terbuka yang sangat saya sukai.
00:01:25Ini sudah ada sejak lama,
00:01:26dan merupakan sesuatu yang terus diperbarui berulang kali.
00:01:28Ia mampu bersaing dengan sistem graph RAG
00:01:30yang lebih canggih seperti milik Microsoft
00:01:32dengan biaya yang hanya sepersekian kecilnya.
00:01:35Jadi ini tempat yang sempurna untuk mencoba
00:01:37konsep graph RAG ini jika Anda belum pernah menggunakannya.
00:01:40Tetapi agar kita bisa maksimal menggunakan Light RAG,
00:01:43kita perlu paham cara kerja RAG di tingkat dasar,
00:01:46karena lanskap RAG telah berubah.
00:01:48Apa yang kita lakukan di akhir 2024 dan awal 2025
00:01:51adalah apa yang disebut naive RAG, tingkat RAG yang paling dasar.
00:01:54Ingat semua otomasi NADN di mana kita bilang,
00:01:56hei, ayo ke Pinecone dan ayo ke Superbase.
00:01:58Itu adalah naive RAG.
00:02:00Itu sudah tidak memadai lagi.
00:02:02Itu tidak lagi cukup.
00:02:03Kita harus menggunakan versi RAG yang lebih canggih,
00:02:06tapi kita perlu memahami dasar-dasarnya terlebih dahulu.
00:02:08Jadi mari kita tinjau sejenak apa itu RAG
00:02:12dan bagaimana cara kerjanya sebelum kita masuk ke pengaturan Light RAG.
00:02:14Jadi RAG, Retrieval Augmented Generation.
00:02:18Cara kerjanya adalah pertama-tama saya mulai
00:02:20dengan semacam dokumen, kan?
00:02:22Dan saya akan memiliki ribuan dokumen ini
00:02:25dalam sistem RAG yang cukup tangguh.
00:02:27Tapi apa yang terjadi adalah saya punya dokumen ini
00:02:29yang ingin saya masukkan ke dalam sistem RAG saya,
00:02:31ke dalam database vektor.
00:02:34Nah, yang terjadi bukanlah dokumen tersebut
00:02:38langsung dilemparkan begitu saja ke database ini, kan?
00:02:40Seolah-olah ini semacam sistem Google Drive.
00:02:41Yang terjadi adalah dokumen melewati model embedding
00:02:44dan kemudian diubah menjadi vektor.
00:02:46Tapi lebih dari itu,
00:02:47dokumen tidak masuk sebagai satu bagian raksasa.
00:02:50Dokumen tersebut dipotong-potong (chunked).
00:02:51Bayangkan kita punya dokumen satu halaman ini
00:02:54dan ia dimasukkan ke potongan satu, potongan dua, dan potongan tiga.
00:02:59Masing-masing potongan ini kemudian menjadi vektor,
00:03:03yang mana hanyalah sebuah titik pada grafik,
00:03:05sebuah titik dalam database vektor.
00:03:06Nah, model embedding-lah yang melakukan pemotongan ini untuk kita.
00:03:09Ia bertanggung jawab atas proses pengambilan dokumen ini,
00:03:11mencari tahu isinya,
00:03:13dan kemudian mengubahnya menjadi titik pada grafik ini.
00:03:16Jadi dokumen tersebut dipotong-potong,
00:03:18melewati model embedding,
00:03:20dan kemudian dokumen kita menjadi vektor pada grafik ini.
00:03:24Nah, ini adalah grafik tiga dimensi.
00:03:27Kenyataannya, ini adalah ribuan dimensi,
00:03:30tapi anggap saja sebagai grafik tiga dimensi untuk sekarang.
00:03:33Sekarang, bayangkan dokumen ini tentang kapal perang.
00:03:36Oke, dan setiap vektor diubah menjadi semacam potongan
00:03:39tentang kapal perang.
00:03:40Nah, ke mana ia akan pergi?
00:03:41Tentu saja ia akan berada di sini di sebelah sampan dan kapal,
00:03:43jelas sekali, dan ia akan menjadi vektornya sendiri.
00:03:45Dan yang saya maksud dengan vektor adalah,
00:03:46ia hanya diberikan serangkaian angka yang merepresentasikannya.
00:03:50Anda bisa melihatnya di sini dengan pisang.
00:03:53Jadi pisang adalah 0.52, 5.12, dan 9.31, dan seterusnya.
00:03:57Ini berlanjut hingga ribuan angka.
00:04:00Jadi si kapal kecil kita di sini seperti satu, dua, tiga,
00:04:05titik-titik, titik-titik, selamanya.
00:04:07Cukup mudah.
00:04:08Jelas, ia tidak akan berada di sebelah pisang dan apel,
00:04:10tapi itulah proses dokumen ke embedding,
00:04:14serta proses pemotongannya.
00:04:15Sekarang, katakanlah Anda di sini, oke?
00:04:18Anda adalah orang yang bahagia di sini,
00:04:20dan Anda mengajukan pertanyaan kepada model bahasa besar
00:04:21tentang kapal perang.
00:04:24Nah, pertanyaan itu dalam skenario sistem RAG ini
00:04:27juga akan diubah menjadi sebuah vektor.
00:04:30Jadi pertanyaan Anda, Anda tahu, LLM melihatnya,
00:04:34dan ia menetapkan serangkaian angka
00:04:35yang juga sesuai dengan semacam vektor
00:04:38di dalam database ini, oke?
00:04:41Dan apa yang akan dilakukannya adalah membandingkan
00:04:43apa vektor pertanyaan Anda
00:04:45dengan vektor-vektor lain di grafik.
00:04:49Ia melihat apa yang disebut kesamaan kosinus (cosine similarity),
00:04:51tapi yang sebenarnya ia lakukan hanyalah mengatakan,
00:04:53hei, pertanyaannya tentang ini.
00:04:55Kita menetapkan angka-angka ini.
00:04:56Vektor mana yang paling dekat dengannya?
00:04:58Angka mana yang paling dekat dengan pertanyaan itu?
00:05:00Nah, pasti yang tentang kapal perang ini
00:05:02dan mungkin sampan dan kapal.
00:05:04Jadi ia sekarang akan mengambil semua vektor tersebut
00:05:08dengan semua informasinya,
00:05:10dan ia akan memperkaya jawaban yang ia buat untuk Anda,
00:05:13maka dari itu disebut retrieval augmented generation.
00:05:16Jadi alih-alih model bahasa besar
00:05:17hanya mengandalkan data pelatihannya,
00:05:19ia mampu masuk ke dalam database vektor,
00:05:22mengambil vektor yang relevan,
00:05:24membawanya kembali dan memberi Anda jawaban tentang kapal perang.
00:05:27Begitulah cara kerja RAG, kan?
00:05:29Ingesti dokumen, potongan diubah menjadi vektor.
00:05:32Vektor tersebut kemudian dibandingkan dengan pertanyaan yang diajukan,
00:05:35mengambil yang terdekat, ta-da, RAG.
00:05:39Dan itu adalah naive RAG,
00:05:40dan itu sebenarnya tidak bekerja dengan sangat baik sama sekali.
00:05:44Jadi orang-orang yang lebih pintar dari kita
00:05:46telah menemukan cara-cara yang lebih baik untuk melakukan ini,
00:05:49yakni hybrid search, graph RAG, dan agentic RAG.
00:05:53Apa yang akan kita fokuskan hari ini adalah graph RAG.
00:05:55Sekarang graph RAG melewati proses yang sama.
00:05:57Anda tetap akan memiliki dokumen itu.
00:05:58Dokumen itu tetap akan dipotong-potong.
00:05:59Tetap akan dimasukkan ke database vektor datar ini,
00:06:03tapi ia akan melakukan satu hal lagi.
00:06:05Ia juga akan membuat graf pengetahuan (knowledge graph) ini.
00:06:07Ia akan menciptakan hal luar biasa ini.
00:06:08Jadi apa ini semua?
00:06:09Apa arti semua vektor dan garis ini?
00:06:11Apa sebenarnya artinya ini?
00:06:12Nah, semua vektor ini, lingkaran-lingkaran kecil ini,
00:06:14inilah yang dikenal sebagai entitas.
00:06:17Dan garis-garis yang menghubungkan dua entitas
00:06:21adalah tepi (edge) atau hubungan (relationship).
00:06:23Jadi kembali ke contoh dokumen kita,
00:06:25bayangkan dokumen ini tentang Anthropic dan Claude Code.
00:06:28Dan seluruh potongan yang ditarik keluar berbunyi,
00:06:31"Anthropic menciptakan Claude Code."
00:06:35Ia akan mengambil itu dan memecahnya
00:06:36menjadi entitas dan hubungan.
00:06:38Apa dua entitasnya?
00:06:39Entitasnya adalah Claude
00:06:41yang mana adalah Anthropic dan Claude Code.
00:06:44Dan hubungannya adalah Anthropic menciptakan Claude Code.
00:06:48Jadi Anda punya Anthropic di sini
00:06:51dan Anda punya Claude Code di sebelah sini.
00:06:54Dan Anda bisa lihat ini adalah entitas, ini adalah entitas,
00:06:58dan mereka memiliki sebuah hubungan.
00:06:59Pada grafik visual, itu hanyalah sebuah garis,
00:07:03tapi di balik layar secara teknis,
00:07:05garis di antara kedua entitas ini
00:07:08memiliki banyak teks yang terkait dengannya
00:07:10yang menjelaskan hubungannya.
00:07:11Jadi dalam sistem graph RAG,
00:07:13ia melakukan itu untuk setiap dokumen yang Anda tambahkan ke dalamnya.
00:07:16Bayangkan ini dikali seribu dokumen.
00:07:19Ini adalah dengan 10 dokumen,
00:07:21semua hubungan dan semua entitas ini.
00:07:24Dan Anda bisa bayangkan betapa jauh lebih canggih itu
00:07:26daripada sekumpulan vektor acak
00:07:28yang terisolasi di dalam database vektor.
00:07:30Dan dengan sistem seperti Light RAG,
00:07:33kita mendapatkan pembuatan graf pengetahuan
00:07:35sekaligus database vektor standar Anda.
00:07:38Ia melakukan kedua hal ini secara paralel.
00:07:40Sehingga ketika Anda sekarang mengajukan pertanyaan
00:07:43tentang apa pun itu kepada model bahasa besar,
00:07:45ia tidak hanya menarik vektor spesifik
00:07:47yang ia temukan paling dekat,
00:07:49ia juga akan pergi ke bawah sini dan melihat sebuah entitas.
00:07:54Katakanlah Anda bertanya tentang Anthropic.
00:07:56Nah, sekarang ia akan menelusuri hubungan-hubungan tersebut,
00:07:59tepi-tepinya, dan menemukan semua yang ia anggap relevan.
00:08:03Jadi apa artinya ini bagi Anda, sang pengguna,
00:08:06dengan sistem graph RAG,
00:08:08Sekarang saya bisa mengajukan pertanyaan yang jauh lebih mendalam,
00:08:11tidak hanya sekadar tentang sebuah dokumen
00:08:13dan pada dasarnya hanya melakukan pencarian kata
00:08:15untuk segala jenis keperluan.
00:08:17Sekarang saya bisa bertanya bagaimana dokumen, teori,
00:08:19dan ide yang berbeda saling berkaitan satu sama lain
00:08:21karena hubungan-hubungan tersebut sudah dipetakan, bukan?
00:08:24Inilah intinya.
00:08:25Ini tentang mengambil informasi yang terpisah dan menghubungkannya.
00:08:30Itulah kekuatan dari graph rag.
00:08:32Itulah kekuatan dari light rag.
00:08:33Dan itulah yang akan kita pelajari hari ini.
00:08:35Jadi, menginstal dan menggunakan light rag
00:08:37semudah yang Anda inginkan.
00:08:40Saya akan menunjukkan cara termudah
00:08:42di mana kita hanya akan mengambil kode cloud.
00:08:44Kita akan memberinya URL dari light rag,
00:08:48dan kita akan berkata, "Hei, siapkan ini untuk kami."
00:08:50Dan itu akan melakukan segalanya secara otomatis.
00:08:52Dalam skenario itu, kita hanya butuh beberapa hal.
00:08:55Seperti yang Anda lihat dalam rincian cara kerja rag,
00:08:58kita memerlukan model embedding.
00:08:59Jadi itu akan membutuhkan sebuah API.
00:09:02Saya menyarankan menggunakan OpenAI.
00:09:04Mereka memiliki model embedding yang sangat efektif.
00:09:07Jadi Anda akan membutuhkan kunci OpenAI.
00:09:09Anda memiliki kemampuan dengan light rag
00:09:11untuk membuat ini sepenuhnya berjalan secara lokal.
00:09:14Jadi Anda bisa memiliki model lokal melalui Ollama
00:09:17yang melakukan semua rincian dengan embedding,
00:09:20serta hal-hal terkait tanya jawab.
00:09:21Jadi pahami bahwa itu juga merupakan opsi, yakni sepenuhnya lokal.
00:09:24Kita akan melakukannya setengah-setengah.
00:09:25Jadi kita akan menyiapkan model embedding OpenAI
00:09:28serta model yang sebenarnya melakukan semua pekerjaannya.
00:09:31Dan kemudian kita juga butuh Docker.
00:09:34Jadi jika Anda belum pernah menggunakan Docker sebelumnya,
00:09:35cara menyiapkannya cukup mudah.
00:09:36Anda hanya butuh Docker desktop,
00:09:39cukup unduh, instal, dan biarkan berjalan
00:09:41saat Anda menjalankan light rag,
00:09:42karena ia akan membutuhkan sebuah kontainer.
00:09:45Jadi apa yang akan Anda lakukan sekarang
00:09:46adalah Anda akan membuka kode cloud
00:09:47dan Anda akan berkata, klon repo light rag,
00:09:50tulis berkas .env yang dikonfigurasi untuk OpenAI
00:09:53dengan GPT-5 mini dan text embedding three large,
00:09:56gunakan semua penyimpanan lokal default
00:09:58dan mulai dengan Docker compose,
00:10:00lalu berikan tautan ke light rag.
00:10:02Jika Anda melakukan itu, ia akan membereskan segalanya untuk Anda.
00:10:06Saya akan menaruh instruksi ini di dalam komunitas sekolah gratis,
00:10:10tautannya ada di deskripsi.
00:10:12Selain itu, yang juga akan ada di sana
00:10:13adalah saya akan tunjukkan sebentar lagi,
00:10:15beberapa keahlian terkait kode cloud dan light rag
00:10:17untuk memudahkannya dikendalikan dari kode cloud.
00:10:19Jadi Anda juga bisa menemukannya di sana.
00:10:22Dan Anda pasti sudah menduganya.
00:10:22Bicara soal sekolah saya,
00:10:24promosi singkat untuk masterclass kode cloud,
00:10:25yang merupakan cara nomor satu untuk jadi pengembang AI dari nol,
00:10:28terutama jika Anda tidak berasal dari latar belakang teknis,
00:10:31tautannya ada di komentar yang disematkan.
00:10:33Saya memperbarui ini secara harfiah setiap minggu,
00:10:35dalam dua minggu terakhir,
00:10:36saya sudah menambahkan sekitar satu setengah jam
00:10:38konten tambahan.
00:10:39Jadi pastikan untuk memeriksanya
00:10:40jika Anda serius ingin menguasai kode cloud
00:10:42dan AI secara umum.
00:10:44Tapi sekali lagi, jika Anda baru dan ini terasa terlalu berat,
00:10:46pastikan lihat sekolah gratisnya
00:10:47dengan banyak sumber daya hebat untuk Anda
00:10:49jika Anda baru saja memulai.
00:10:50Dan sebelum Anda menjalankan ini,
00:10:51pastikan Docker desktop Anda sudah berjalan
00:10:53dan siapkan kunci OpenAI tersebut
00:10:55lalu biarkan kode cloud bekerja.
00:10:56Setelah kode cloud selesai menginstalnya
00:10:58dan Anda menambahkan kunci OpenAI ke berkas EMV,
00:11:01Anda seharusnya melihat tampilan seperti ini.
00:11:02Pertama-tama, di Docker desktop Anda,
00:11:04Anda akan melihat kontainer bernama LightRag yang sedang aktif.
00:11:07Lalu kode cloud juga akan memberi Anda tautan
00:11:11ke localhost Anda, biasanya di port 9621.
00:11:13Dan itu akan membawa Anda ke halaman seperti ini.
00:11:15Ini adalah antarmuka web untuk LightRag.
00:11:18Di sinilah kita bisa mengunggah dokumen,
00:11:21kita bisa melihat grafik pengetahuan, mengambil data,
00:11:24dan kita juga bisa melihat
00:11:25semua titik akhir API yang berbeda,
00:11:28yang akan sangat berguna nanti.
00:11:30Dan yang Anda lihat di sini adalah dokumen
00:11:31yang sudah saya unggah untuk video ini.
00:11:33Mengunggah dokumen sangatlah sederhana.
00:11:35Kita cukup ke sisi kanan sini
00:11:36di bagian Unggah, lalu tinggal masukkan berkasnya.
00:11:39Pahami bahwa hanya ada jenis dokumen tertentu
00:11:42yang bisa kita masukkan ke sini, ya?
00:11:43Dokumen teks, PDF, pada dasarnya,
00:11:46Anda terbatas pada dokumen berbasis teks.
00:11:49Ada cara untuk menyiasati hal ini,
00:11:51terutama dengan gambar, bagan, dan tabel
00:11:56dan hal semacam itu.
00:11:57Kita akan membahasnya di bagian akhir
00:11:59karena agak di luar cakupan bahasan,
00:12:00tapi kita akan mempelajarinya.
00:12:02Jadi masukkan dokumen apa pun yang Anda mau ke sini,
00:12:04dan Anda akan bisa melihat statusnya
00:12:07saat sedang diunggah.
00:12:08Ini akan memakan waktu karena sekali lagi,
00:12:10ia sedang membangun grafik pengetahuan sambil melakukan ini.
00:12:12Jadi ini bisa memakan waktu cukup lama.
00:12:14Dan jika karena alasan apa pun Anda berada di halaman grafik pengetahuan
00:12:16karena ini bisa terjadi dan muncul pesan seperti,
00:12:18"Hei, grafiknya tidak termuat," atau semacamnya,
00:12:19Anda cukup mengaturnya ulang dengan menekan tombol ini
00:12:21di bagian kiri atas.
00:12:23Jika Anda pindah ke tab Pengambilan (Retrieval),
00:12:25di situlah Anda bisa mengajukan pertanyaan
00:12:27tentang grafik pengetahuan Anda ke model bahasa besar,
00:12:30yang dalam hal ini kemungkinan besar adalah OpenAI
00:12:31jika Anda menggunakan kunci yang sama untuk embedding.
00:12:33Dan di sebelah kanan sini, ada beberapa parameter.
00:12:36Sejujurnya, pada awalnya tidak banyak yang perlu diubah.
00:12:39Dan sebentar lagi, saya tunjukkan bagaimana kode Claude bisa melakukannya.
00:12:42Tapi saat Anda bertanya, sebagai contoh,
00:12:44saya punya banyak dokumen AI dan RAG di sana.
00:12:47Saya bertanya, "Apa gambaran biaya penuh
00:12:48untuk menjalankan RAG di tahun 2026?"
00:12:50Ia memberi saya jawaban yang cukup canggih.
00:12:53Dan selain itu, ia juga memberikan referensi
00:12:56untuk semua yang dilakukannya, kan?
00:12:57Lihat angka empat, tiga di sini, dua,
00:13:00karena di bagian bawah halaman,
00:13:01ia akan memberikan referensi yang sebenarnya
00:13:03untuk dokumen-dokumen yang diambilnya.
00:13:05Dan tentu saja di dalam grafik pengetahuan kita,
00:13:07kita menjelaskan tentang entitas dan hubungan.
00:13:09Jika saya mengklik salah satu entitas seperti OpenAI, misalnya,
00:13:12saya bisa melihat beberapa propertinya.
00:13:14Jadi ia melakukan lebih dari sekadar menarik hubungan dan entitas
00:13:17dalam proses embedding dengan LightRag.
00:13:19Ia masuk sedikit lebih dalam dan mengidentifikasi,
00:13:20"Oke, jenis entitas apa ini?
00:13:22Apakah ini organisasi atau orang?"
00:13:25Ia memiliki berkas spesifik yang diambilnya
00:13:27serta ID pemotongan data (chunking).
00:13:29Lalu Anda bisa melihat hubungan yang sebenarnya
00:13:31di bagian bawah kanan.
00:13:32Saya pindahkan ini sebentar.
00:13:33Jadi di bawah sini di bagian kanan bawah,
00:13:35jika Anda tidak bisa melihatnya secara visual,
00:13:36karena bisa jadi agak menumpuk di grafik,
00:13:40Anda bisa langsung klik di sini
00:13:41dan itu akan membawa Anda ke sana juga.
00:13:43API server inilah yang akan kita gunakan
00:13:46untuk menghubungkan hal ini ke kode Claude.
00:13:48Karena meskipun ini sudah bagus,
00:13:50saya tidak akan duduk di sini terus
00:13:51setiap kali saya ingin mengajukan pertanyaan
00:13:53tentang grafik pengetahuan saya lewat tab pengambilan.
00:13:56Itu terlalu merepotkan.
00:13:57Jadi sebagai gantinya, kita akan gunakan API ini.
00:14:00Sekarang, setiap API ini memiliki deskripsi,
00:14:03Anda bisa melihat parameter dan lainnya,
00:14:05setiap API ini bisa diubah menjadi sebuah keahlian (skill).
00:14:08Dan itulah yang akan saya lakukan dan tunjukkan di sini hari ini.
00:14:11Dengan begitu, saat Anda ingin kode Claude menggunakan light rag,
00:14:15kita tinggal masuk ke kode Claude di mana pun kita berada,
00:14:17dan berkata, "Hei, saya mau pakai skill query light rag
00:14:19dan bertanya tentang hal ini dan itu."
00:14:22Hasilnya sama saja dengan jika Anda berada
00:14:23di tab pengambilan dan mengajukan pertanyaan.
00:14:26Dan lebih baik lagi, kode Claude akan mengambil respons
00:14:28yang diberikan dan merangkumnya
00:14:30karena respons ini bisa sangat mendalam
00:14:32dan panjang jika berasal langsung dari light rag.
00:14:34Tapi jika Anda hanya ingin jawaban mentahnya,
00:14:36Anda juga bisa mengaturnya seperti itu.
00:14:37Intinya, meskipun ini memiliki antarmuka web,
00:14:40Anda tidak benar-benar harus berinteraksi dengannya
00:14:41jika Anda tidak mau.
00:14:42Sangat mudah untuk membawanya
00:14:44ke dalam ekosistem kode Claude kita.
00:14:46Ada empat skill besar yang menurut saya paling sering digunakan,
00:14:48yaitu query, upload, explore, dan status.
00:14:51Keempatnya juga akan ada di dalam sekolah gratis.
00:14:55Tapi apa yang akan paling sering Anda lakukan?
00:14:56Anda akan menambahkan dokumen-dokumen baru
00:14:58dan mengajukan pertanyaan tentang dokumen tersebut.
00:15:01Dan Anda mungkin juga ingin tahu,
00:15:02"Apa saja yang sebenarnya sudah saya masukkan ke sana?"
00:15:04Karena setelah punya banyak dokumen,
00:15:05Anda tentu ingin menghindari memasukkan dokumen yang sama
00:15:07secara berulang-ulang.
00:15:08Jadi jika saya menanyakan hal yang sama di dalam kode Claude,
00:15:12saya baru saja memanggil skill query light rag,
00:15:14ia mengirim permintaan tersebut ke light rag,
00:15:18yang sekali lagi, dihosting di komputer kita,
00:15:21berjalan di dalam kontainer Docker tersebut,
00:15:22dan akan memberikan responsnya kembali.
00:15:24Sekarang, Anda tidak terbatas pada sistem semi-lokal ini.
00:15:28Jika Anda adalah seseorang yang melakukan skalabilitas besar
00:15:30dengan light rag, Anda bisa menghosting ini
00:15:33di server Postgres standar.
00:15:36Anda punya banyak pilihan, Anda bisa menggunakan sesuatu seperti neon.
00:15:38Jadi ini mencakup seluruh spektrum.
00:15:40Anda bisa menggunakan lokal sepenuhnya atau memindahkan semua ini
00:15:43ke cloud jika Anda mau.
00:15:44Light rag sangat, sangat bisa disesuaikan.
00:15:46Dan inilah respons yang diberikan Clod code,
00:15:48yang sekali lagi, merupakan ringkasan dari respons mentah
00:15:52yang diberikan light rag kepada kita, dan juga mengutip sumbernya.
00:15:55Saya juga memintanya untuk memberikan respons mentah
00:15:57karena Anda juga bisa mendapatkannya,
00:15:58karena ia hanya membawanya kembali ke Clod code
00:16:00dalam bentuk respons JSON.
00:16:02Jadi hanya itu saja.
00:16:04Dan kemudian, ia juga memiliki referensi jika Anda menginginkannya.
00:16:07Jadi seperti yang baru saja Anda lihat, sangat mudah menginstal light rag
00:16:10dan sangat sederhana untuk mengintegrasikannya ke alur kerja Clod code Anda.
00:16:14Sekarang pertanyaannya adalah, oke, Chase, kedengarannya bagus.
00:16:18Saya mengerti secara konsep bahwa jika saya punya banyak dokumen,
00:16:20saya mungkin harus menggunakan ini.
00:16:22Nah, di mana batasannya?
00:16:23Kapan saya harus mulai mengintegrasikan light rag?
00:16:26Yah, tidak ada angka pastinya.
00:16:28Area abu-abunya adalah, saya akan katakan antara 500
00:16:33dan 2000 halaman dokumen.
00:16:36Saya tidak ingin hanya mengatakan dokumen
00:16:37karena siapa yang tahu seberapa besar dokumen itu nantinya,
00:16:39tapi sekitar 500 sampai 2000 halaman teks.
00:16:42Pada titik 2000 halaman, Anda mulai mencapai
00:16:44sekitar satu juta token.
00:16:47Di atas itu, mungkin masuk akal bagi Anda
00:16:50untuk mulai mengintegrasikan light rag,
00:16:52karena cara RAG diatur,
00:16:54itu akan lebih murah dan lebih cepat untuk dilakukan
00:16:57daripada hanya mengandalkan grep standar dari Clod code.
00:17:00Grep yang dihasilkan, cara Clod code mencari file
00:17:03sebenarnya sudah bagus.
00:17:04Ada alasan mengapa Clod code memilih untuk melakukannya.
00:17:07Namun, itu bukan dengan asumsi Anda memiliki 2000 halaman
00:17:12dokumen atau 4000 atau 5000, bukan?
00:17:14Ada batas atasnya.
00:17:16Hal baiknya adalah Anda tidak perlu membuat
00:17:19keputusan itu secara kaku, seperti yang Anda lihat,
00:17:22sangat mudah untuk mengimplementasikan ini.
00:17:24Jadi, bereksperimenlah saja.
00:17:26Jika Anda merasa punya banyak dokumen dan berpikir,
00:17:28"Hei, apakah kita harus menggunakan RAG pada titik ini?"
00:17:30Yah, saya tidak tahu, cobalah saja.
00:17:32Tidak butuh waktu lama untuk melakukannya.
00:17:34Bagian yang paling melelahkan adalah proses embedding.
00:17:36Itu pasti memakan waktu sejenak, tapi tidak melumpuhkan.
00:17:40Dan biayanya tidak gila, terutama dengan light rag.
00:17:43Jika Anda membandingkannya lagi dengan sistem graph rag lainnya
00:17:45seperti Microsoft graph rag, ini hanya sebagian kecil,
00:17:48persentase yang sangat kecil dari biayanya.
00:17:49Dan pada ukuran dokumen yang sangat besar,
00:17:52perbandingan biaya RAG dengan sesuatu seperti grep
00:17:56bisa mencapai seribu kali lebih murah.
00:17:58Ada sebuah studi yang dilakukan musim panas lalu
00:18:04bahwa menggunakan RAG 1250 kali lebih murah
00:18:07dalam situasi seperti itu.
00:18:08Anda bisa melihatnya di sini antara textual rag
00:18:10berbanding textual LLM, serta waktu respons yang sebenarnya.
00:18:14Sekadar informasi, ini dari Juli tahun lalu.
00:18:19Jadi model-modelnya telah berubah.
00:18:20Saya sangat ragu perbedaannya akan segila itu
00:18:23ketika kita membandingkan RAG dengan situasi teknologi standar Anda.
00:18:26Dan ini juga saat Gemini 2.0.
00:18:28Kita belum membicarakan tentang harness.
00:18:29Jadi banyak hal telah berubah,
00:18:31tapi apakah perubahannya sudah menutup celah 1250 kali lipat itu?
00:18:36Mungkin, mungkin tidak.
00:18:39Saya rasa tidak.
00:18:40Bagaimanapun, cobalah saja.
00:18:42Saya rasa tidak ada ruginya.
00:18:44Hal lain dengan light rag adalah ide bahwa,
00:18:46hei, jika saya ingin mengunggah dokumen,
00:18:48kita sudah membicarakan ini sedikit sebelumnya.
00:18:49Apa yang kita lakukan jika kita punya tabel, grafik,
00:18:53hal-hal yang bukan teks?
00:18:54Bisakah light rag menanganinya?
00:18:57Tidak tepat, tapi kita bisa memperbaikinya.
00:18:59Dan jawabannya adalah "rag anything"
00:19:02dari pembuat yang sama dengan light rag.
00:19:04Dan ini adalah sesuatu yang pada dasarnya bisa multimodal.
00:19:07Dan ini bisa kita pasang
00:19:09langsung di atas light rag.
00:19:10Sekarang, saya benci mengecewakan Anda,
00:19:13tapi itu akan berada di luar hari ini,
00:19:15di luar lingkup video hari ini.
00:19:17Namun, di video besok,
00:19:18menurut Anda apa yang akan kita lakukan?
00:19:19Besok, kita akan membahas rag anything
00:19:22dan menunjukkan cara mengintegrasikannya
00:19:25ke dalam apa yang kita bangun dengan light rag.
00:19:27Jadi itu akan menjadi kombinasi yang hebat.
00:19:28Jadi jika itu adalah sesuatu yang Anda minati,
00:19:31sukai dan berlanggananlah,
00:19:32karena kita akan membahasnya besok.
00:19:34Dan pada catatan itu,
00:19:35di sinilah kita akan menyelesaikannya.
00:19:39Semoga Anda menikmatinya.
00:19:41Ini adalah video pertama saya juga, dengan pengaturan kamera baru ini.
00:19:43Pencahayaannya, saya sudah bisa tahu kalau ini tidak,
00:19:46tidak persis seperti yang saya inginkan.
00:19:48Jadi saya minta maaf untuk itu semua.
00:19:49Masih memperbaiki kekurangan yang ada,
00:19:50saya senang ini berfungsi sama sekali
00:19:52dan kameranya tidak kepanasan di tengah-tengah video ini.
00:19:55Tapi ya, semua keterampilannya ada di dalam sekolah gratis.
00:19:58Hal-hal tentang RAG sangat menarik, terutama light rag.
00:20:01Ini produk yang luar biasa.
00:20:02Saya sudah menggunakannya cukup lama.
00:20:03Jadi 100%, 100% cobalah benda ini.
00:20:06Dan sangat mudah untuk diintegrasikan
00:20:07di dalam collage code seperti yang Anda lihat.
00:20:08Jadi lihat sekolah gratis untuk keterampilannya,
00:20:12serta perintahnya jika Anda membutuhkannya.
00:20:14Sejujurnya,
00:20:15jika Anda hanya mengarahkan cloud code ke light rag,
00:20:16ia akan mengaturnya dengan baik dengan sendirinya.
00:20:19Tapi selain itu,
00:20:20pastikan untuk melihat Chase AI Plus
00:20:21jika Anda ingin mencoba masterclass itu.
00:20:24Dan sampai jumpa lagi.

Key Takeaway

Implementasi sistem GraphRAG menggunakan LightRAG dan Claude Code pada tahun 2026 memberikan solusi manajemen pengetahuan yang 1.250 kali lebih murah dan lebih cepat daripada hanya mengandalkan jendela konteks LLM standar untuk korpus dokumen di atas 2.000 halaman.

Highlights

LightRAG menawarkan sistem GraphRAG sumber terbuka yang mampu mengelola korpus hingga 5.000 dokumen dengan biaya lebih rendah dibanding solusi milik Microsoft.

Pencarian berbasis RAG terbukti 1.250 kali lebih murah dibandingkan penggunaan LLM standar (textual LLM) untuk pemrosesan dokumen skala besar.

Ambang batas efisiensi untuk beralih ke sistem RAG berada pada kisaran 500 hingga 2.000 halaman teks atau setara satu juta token.

Integrasi Claude Code dengan LightRAG melalui Docker dan API memungkinkan otomatisasi kueri dan pengelolaan dokumen langsung dari terminal.

Model embedding OpenAI seperti 'text-embedding-3-large' dan model 'gpt-4o-mini' direkomendasikan untuk menyeimbangkan performa dan biaya operasional.

Timeline

Relevansi RAG dan Pergeseran ke GraphRAG di Tahun 2026

  • Metode Naive RAG standar yang populer pada awal 2025 sudah tidak memadai untuk kebutuhan perusahaan saat ini.
  • Sistem RAG tetap diperlukan meskipun model bahasa besar seperti GPT-4.5 atau Opus memiliki jendela konteks yang semakin luas.
  • Penggunaan sistem RAG pada skala 500 hingga 1.000 dokumen jauh lebih cepat dan murah dibandingkan pencarian agentic standar.

Keterbatasan jendela konteks LLM muncul ketika berhadapan dengan data berskala besar di lingkungan bisnis. Meskipun model terbaru memiliki kapasitas memori yang besar, efisiensi biaya tetap menjadi faktor utama. LightRAG hadir sebagai solusi sumber terbuka yang mampu bersaing dengan sistem canggih namun dengan biaya operasional yang sangat kecil.

Mekanisme Retrieval Augmented Generation

  • Proses embedding mengubah potongan dokumen (chunks) menjadi koordinat numerik atau vektor dalam ruang multidimensi.
  • Kesamaan kosinus (cosine similarity) digunakan untuk membandingkan vektor pertanyaan pengguna dengan data yang tersimpan di database.
  • Sistem RAG memperkaya jawaban LLM dengan mengambil data relevan dari database eksternal alih-alih hanya mengandalkan data pelatihan internal.

Dokumen tidak dimasukkan secara utuh ke dalam database melainkan dipecah menjadi bagian-bagian kecil. Model embedding bertanggung jawab memetakan makna semantik dari teks ke dalam angka-angka representatif. Saat pengguna bertanya, sistem mencari titik vektor terdekat yang memiliki kemiripan makna untuk kemudian dijadikan referensi jawaban oleh model bahasa.

Keunggulan Struktur GraphRAG dan Entitas

  • GraphRAG memetakan informasi menjadi entitas (node) dan hubungan (edge) untuk menciptakan graf pengetahuan (knowledge graph).
  • Sistem ini memungkinkan kueri yang lebih mendalam mengenai keterkaitan antar teori atau ide yang tersebar di dokumen yang berbeda.
  • LightRAG menjalankan pembuatan graf pengetahuan dan database vektor secara paralel untuk akurasi pengambilan data yang lebih tinggi.

Hubungan antar entitas dalam graf pengetahuan disimpan dalam bentuk teks penjelasan yang mendetail. Struktur ini memungkinkan model bahasa untuk menavigasi hubungan antar data yang sebelumnya terisolasi dalam database vektor biasa. Hal ini menghasilkan jawaban yang lebih kontekstual karena sistem memahami bagaimana satu subjek berhubungan dengan subjek lainnya secara teknis.

Implementasi Teknis LightRAG dengan Claude Code

  • Otomatisasi instalasi dilakukan dengan mengarahkan Claude Code ke repositori LightRAG melalui Docker Compose.
  • Konfigurasi file .env memerlukan kunci API OpenAI untuk model embedding dan pemrosesan kueri.
  • Sistem ini mendukung privasi penuh dengan opsi menjalankan model secara lokal menggunakan Ollama.

Persyaratan utama untuk menjalankan sistem ini adalah Docker Desktop dan kunci API dari penyedia model seperti OpenAI. Pengguna dapat memerintahkan Claude Code untuk melakukan kloning repositori, menulis file konfigurasi, dan menjalankan kontainer secara otomatis. Fleksibilitas ini memungkinkan transisi dari penggunaan API cloud ke model lokal sepenuhnya tergantung pada kebutuhan keamanan data.

Manajemen Data dan Integrasi Skill API

  • Antarmuka web LightRAG pada port 9621 menyediakan visualisasi graf, status unggahan, dan titik akhir API.
  • Empat fungsi utama yang diintegrasikan ke Claude Code meliputi kueri, unggah dokumen, eksplorasi graf, dan pemeriksaan status.
  • Setiap respons dari LightRAG disertai dengan referensi sumber dokumen yang dikutip dalam jawaban.

Meskipun memiliki antarmuka grafis, penggunaan LightRAG lebih efisien dilakukan melalui integrasi 'skill' pada Claude Code. Hal ini memungkinkan pengguna untuk memperbarui basis pengetahuan atau melakukan kueri langsung dari terminal tanpa berpindah aplikasi. Sistem juga mampu memberikan ringkasan dari respons JSON mentah yang panjang agar lebih mudah dibaca oleh pengguna.

Analisis Biaya dan Performa Multimodal

  • Penggunaan RAG pada dokumen skala besar bisa 1.000 kali lebih murah dibandingkan metode pencarian teks tradisional (grep).
  • Ekstensi 'RAG Anything' memungkinkan sistem menangani data multimodal seperti tabel, bagan, dan gambar.
  • Proses embedding merupakan tahap yang paling memakan waktu namun tidak memerlukan biaya tinggi jika menggunakan model yang tepat.

Data dari studi pertengahan 2025 menunjukkan bahwa efisiensi biaya RAG tetap tak terkalahkan oleh model dengan konteks besar dalam skenario penggunaan intensif. Untuk data yang mengandung elemen non-teks, integrasi tambahan diperlukan agar sistem tetap fungsional secara multimodal. Keunggulan utama LightRAG terletak pada kemampuannya untuk disesuaikan, mulai dari penyimpanan lokal hingga penggunaan server database cloud seperti Postgres atau Neon.

Community Posts

View all posts