00:00:00kematian RAG telah sangat dibesar-besarkan.
00:00:03Ya, saya tahu model bahasa besar seperti Opus 4.6
00:00:05sudah jauh lebih baik akhir-akhir ini dalam menangani konteks besar.
00:00:09Tetapi jika Anda berpikir itu berarti Anda tidak akan butuh RAG,
00:00:12Anda akan membentur dinding
00:00:14yang tidak bisa Anda selesaikan hanya dengan prompt.
00:00:16Jadi hari ini saya akan menjelaskan kapan Anda butuh RAG,
00:00:19jenis RAG apa yang benar-benar berhasil di tahun 2026
00:00:22karena lanskapnya telah banyak berubah selama setahun terakhir,
00:00:25dan saya akan menunjukkan cara menghubungkan Cloud Code
00:00:28ke sistem RAG Anda,
00:00:30serta memberi Anda beberapa keahlian yang bisa Anda bawa pulang.
00:00:32Jadi tujuan hari ini adalah memberi Anda ini,
00:00:35sistem graph RAG yang dibangun di atas Light RAG
00:00:38yang dapat kita gunakan dengan Cloud Code.
00:00:40Dan yang lebih penting, ini akan memberi kita sebuah sistem
00:00:43yang dapat kita gunakan saat kita perlu menggunakan AI
00:00:45dengan kumpulan dokumen korpus yang sangat besar, bukan?
00:00:49Bukan hanya lima dokumen, bukan hanya 10 dokumen
00:00:51seperti yang akan Anda lihat di demo,
00:00:52tapi 500 dokumen, 1.000 dokumen,
00:00:55karena tidak cukup hanya mengandalkan
00:00:57jendela konteks bawaan Cloud Code,
00:00:59atau LLM lainnya.
00:01:01Karena ketika Anda mulai mencapai skala besar,
00:01:03yang memang terlihat di banyak perusahaan besar
00:01:05atau bahkan bisnis kecil sekalipun,
00:01:06memiliki sistem RAG seperti ini sebenarnya lebih murah dan cepat
00:01:10daripada pencarian agentic standar Anda.
00:01:12Jadi dengan pemikiran tersebut,
00:01:13memiliki keahlian untuk dapat membuat
00:01:14sistem RAG jenis ini sangatlah penting,
00:01:16tapi untungnya ini cukup sederhana.
00:01:18Dan seperti yang baru saja saya singgung,
00:01:19kita akan menggunakan Light RAG hari ini.
00:01:21Ini adalah repo sumber terbuka yang sangat saya sukai.
00:01:25Ini sudah ada sejak lama,
00:01:26dan merupakan sesuatu yang terus diperbarui berulang kali.
00:01:28Ia mampu bersaing dengan sistem graph RAG
00:01:30yang lebih canggih seperti milik Microsoft
00:01:32dengan biaya yang hanya sepersekian kecilnya.
00:01:35Jadi ini tempat yang sempurna untuk mencoba
00:01:37konsep graph RAG ini jika Anda belum pernah menggunakannya.
00:01:40Tetapi agar kita bisa maksimal menggunakan Light RAG,
00:01:43kita perlu paham cara kerja RAG di tingkat dasar,
00:01:46karena lanskap RAG telah berubah.
00:01:48Apa yang kita lakukan di akhir 2024 dan awal 2025
00:01:51adalah apa yang disebut naive RAG, tingkat RAG yang paling dasar.
00:01:54Ingat semua otomasi NADN di mana kita bilang,
00:01:56hei, ayo ke Pinecone dan ayo ke Superbase.
00:01:58Itu adalah naive RAG.
00:02:00Itu sudah tidak memadai lagi.
00:02:02Itu tidak lagi cukup.
00:02:03Kita harus menggunakan versi RAG yang lebih canggih,
00:02:06tapi kita perlu memahami dasar-dasarnya terlebih dahulu.
00:02:08Jadi mari kita tinjau sejenak apa itu RAG
00:02:12dan bagaimana cara kerjanya sebelum kita masuk ke pengaturan Light RAG.
00:02:14Jadi RAG, Retrieval Augmented Generation.
00:02:18Cara kerjanya adalah pertama-tama saya mulai
00:02:20dengan semacam dokumen, kan?
00:02:22Dan saya akan memiliki ribuan dokumen ini
00:02:25dalam sistem RAG yang cukup tangguh.
00:02:27Tapi apa yang terjadi adalah saya punya dokumen ini
00:02:29yang ingin saya masukkan ke dalam sistem RAG saya,
00:02:31ke dalam database vektor.
00:02:34Nah, yang terjadi bukanlah dokumen tersebut
00:02:38langsung dilemparkan begitu saja ke database ini, kan?
00:02:40Seolah-olah ini semacam sistem Google Drive.
00:02:41Yang terjadi adalah dokumen melewati model embedding
00:02:44dan kemudian diubah menjadi vektor.
00:02:46Tapi lebih dari itu,
00:02:47dokumen tidak masuk sebagai satu bagian raksasa.
00:02:50Dokumen tersebut dipotong-potong (chunked).
00:02:51Bayangkan kita punya dokumen satu halaman ini
00:02:54dan ia dimasukkan ke potongan satu, potongan dua, dan potongan tiga.
00:02:59Masing-masing potongan ini kemudian menjadi vektor,
00:03:03yang mana hanyalah sebuah titik pada grafik,
00:03:05sebuah titik dalam database vektor.
00:03:06Nah, model embedding-lah yang melakukan pemotongan ini untuk kita.
00:03:09Ia bertanggung jawab atas proses pengambilan dokumen ini,
00:03:11mencari tahu isinya,
00:03:13dan kemudian mengubahnya menjadi titik pada grafik ini.
00:03:16Jadi dokumen tersebut dipotong-potong,
00:03:18melewati model embedding,
00:03:20dan kemudian dokumen kita menjadi vektor pada grafik ini.
00:03:24Nah, ini adalah grafik tiga dimensi.
00:03:27Kenyataannya, ini adalah ribuan dimensi,
00:03:30tapi anggap saja sebagai grafik tiga dimensi untuk sekarang.
00:03:33Sekarang, bayangkan dokumen ini tentang kapal perang.
00:03:36Oke, dan setiap vektor diubah menjadi semacam potongan
00:03:39tentang kapal perang.
00:03:40Nah, ke mana ia akan pergi?
00:03:41Tentu saja ia akan berada di sini di sebelah sampan dan kapal,
00:03:43jelas sekali, dan ia akan menjadi vektornya sendiri.
00:03:45Dan yang saya maksud dengan vektor adalah,
00:03:46ia hanya diberikan serangkaian angka yang merepresentasikannya.
00:03:50Anda bisa melihatnya di sini dengan pisang.
00:03:53Jadi pisang adalah 0.52, 5.12, dan 9.31, dan seterusnya.
00:03:57Ini berlanjut hingga ribuan angka.
00:04:00Jadi si kapal kecil kita di sini seperti satu, dua, tiga,
00:04:05titik-titik, titik-titik, selamanya.
00:04:07Cukup mudah.
00:04:08Jelas, ia tidak akan berada di sebelah pisang dan apel,
00:04:10tapi itulah proses dokumen ke embedding,
00:04:14serta proses pemotongannya.
00:04:15Sekarang, katakanlah Anda di sini, oke?
00:04:18Anda adalah orang yang bahagia di sini,
00:04:20dan Anda mengajukan pertanyaan kepada model bahasa besar
00:04:21tentang kapal perang.
00:04:24Nah, pertanyaan itu dalam skenario sistem RAG ini
00:04:27juga akan diubah menjadi sebuah vektor.
00:04:30Jadi pertanyaan Anda, Anda tahu, LLM melihatnya,
00:04:34dan ia menetapkan serangkaian angka
00:04:35yang juga sesuai dengan semacam vektor
00:04:38di dalam database ini, oke?
00:04:41Dan apa yang akan dilakukannya adalah membandingkan
00:04:43apa vektor pertanyaan Anda
00:04:45dengan vektor-vektor lain di grafik.
00:04:49Ia melihat apa yang disebut kesamaan kosinus (cosine similarity),
00:04:51tapi yang sebenarnya ia lakukan hanyalah mengatakan,
00:04:53hei, pertanyaannya tentang ini.
00:04:55Kita menetapkan angka-angka ini.
00:04:56Vektor mana yang paling dekat dengannya?
00:04:58Angka mana yang paling dekat dengan pertanyaan itu?
00:05:00Nah, pasti yang tentang kapal perang ini
00:05:02dan mungkin sampan dan kapal.
00:05:04Jadi ia sekarang akan mengambil semua vektor tersebut
00:05:08dengan semua informasinya,
00:05:10dan ia akan memperkaya jawaban yang ia buat untuk Anda,
00:05:13maka dari itu disebut retrieval augmented generation.
00:05:16Jadi alih-alih model bahasa besar
00:05:17hanya mengandalkan data pelatihannya,
00:05:19ia mampu masuk ke dalam database vektor,
00:05:22mengambil vektor yang relevan,
00:05:24membawanya kembali dan memberi Anda jawaban tentang kapal perang.
00:05:27Begitulah cara kerja RAG, kan?
00:05:29Ingesti dokumen, potongan diubah menjadi vektor.
00:05:32Vektor tersebut kemudian dibandingkan dengan pertanyaan yang diajukan,
00:05:35mengambil yang terdekat, ta-da, RAG.
00:05:39Dan itu adalah naive RAG,
00:05:40dan itu sebenarnya tidak bekerja dengan sangat baik sama sekali.
00:05:44Jadi orang-orang yang lebih pintar dari kita
00:05:46telah menemukan cara-cara yang lebih baik untuk melakukan ini,
00:05:49yakni hybrid search, graph RAG, dan agentic RAG.
00:05:53Apa yang akan kita fokuskan hari ini adalah graph RAG.
00:05:55Sekarang graph RAG melewati proses yang sama.
00:05:57Anda tetap akan memiliki dokumen itu.
00:05:58Dokumen itu tetap akan dipotong-potong.
00:05:59Tetap akan dimasukkan ke database vektor datar ini,
00:06:03tapi ia akan melakukan satu hal lagi.
00:06:05Ia juga akan membuat graf pengetahuan (knowledge graph) ini.
00:06:07Ia akan menciptakan hal luar biasa ini.
00:06:08Jadi apa ini semua?
00:06:09Apa arti semua vektor dan garis ini?
00:06:11Apa sebenarnya artinya ini?
00:06:12Nah, semua vektor ini, lingkaran-lingkaran kecil ini,
00:06:14inilah yang dikenal sebagai entitas.
00:06:17Dan garis-garis yang menghubungkan dua entitas
00:06:21adalah tepi (edge) atau hubungan (relationship).
00:06:23Jadi kembali ke contoh dokumen kita,
00:06:25bayangkan dokumen ini tentang Anthropic dan Claude Code.
00:06:28Dan seluruh potongan yang ditarik keluar berbunyi,
00:06:31"Anthropic menciptakan Claude Code."
00:06:35Ia akan mengambil itu dan memecahnya
00:06:36menjadi entitas dan hubungan.
00:06:38Apa dua entitasnya?
00:06:39Entitasnya adalah Claude
00:06:41yang mana adalah Anthropic dan Claude Code.
00:06:44Dan hubungannya adalah Anthropic menciptakan Claude Code.
00:06:48Jadi Anda punya Anthropic di sini
00:06:51dan Anda punya Claude Code di sebelah sini.
00:06:54Dan Anda bisa lihat ini adalah entitas, ini adalah entitas,
00:06:58dan mereka memiliki sebuah hubungan.
00:06:59Pada grafik visual, itu hanyalah sebuah garis,
00:07:03tapi di balik layar secara teknis,
00:07:05garis di antara kedua entitas ini
00:07:08memiliki banyak teks yang terkait dengannya
00:07:10yang menjelaskan hubungannya.
00:07:11Jadi dalam sistem graph RAG,
00:07:13ia melakukan itu untuk setiap dokumen yang Anda tambahkan ke dalamnya.
00:07:16Bayangkan ini dikali seribu dokumen.
00:07:19Ini adalah dengan 10 dokumen,
00:07:21semua hubungan dan semua entitas ini.
00:07:24Dan Anda bisa bayangkan betapa jauh lebih canggih itu
00:07:26daripada sekumpulan vektor acak
00:07:28yang terisolasi di dalam database vektor.
00:07:30Dan dengan sistem seperti Light RAG,
00:07:33kita mendapatkan pembuatan graf pengetahuan
00:07:35sekaligus database vektor standar Anda.
00:07:38Ia melakukan kedua hal ini secara paralel.
00:07:40Sehingga ketika Anda sekarang mengajukan pertanyaan
00:07:43tentang apa pun itu kepada model bahasa besar,
00:07:45ia tidak hanya menarik vektor spesifik
00:07:47yang ia temukan paling dekat,
00:07:49ia juga akan pergi ke bawah sini dan melihat sebuah entitas.
00:07:54Katakanlah Anda bertanya tentang Anthropic.
00:07:56Nah, sekarang ia akan menelusuri hubungan-hubungan tersebut,
00:07:59tepi-tepinya, dan menemukan semua yang ia anggap relevan.
00:08:03Jadi apa artinya ini bagi Anda, sang pengguna,
00:08:06dengan sistem graph RAG,
00:08:08Sekarang saya bisa mengajukan pertanyaan yang jauh lebih mendalam,
00:08:11tidak hanya sekadar tentang sebuah dokumen
00:08:13dan pada dasarnya hanya melakukan pencarian kata
00:08:15untuk segala jenis keperluan.
00:08:17Sekarang saya bisa bertanya bagaimana dokumen, teori,
00:08:19dan ide yang berbeda saling berkaitan satu sama lain
00:08:21karena hubungan-hubungan tersebut sudah dipetakan, bukan?
00:08:24Inilah intinya.
00:08:25Ini tentang mengambil informasi yang terpisah dan menghubungkannya.
00:08:30Itulah kekuatan dari graph rag.
00:08:32Itulah kekuatan dari light rag.
00:08:33Dan itulah yang akan kita pelajari hari ini.
00:08:35Jadi, menginstal dan menggunakan light rag
00:08:37semudah yang Anda inginkan.
00:08:40Saya akan menunjukkan cara termudah
00:08:42di mana kita hanya akan mengambil kode cloud.
00:08:44Kita akan memberinya URL dari light rag,
00:08:48dan kita akan berkata, "Hei, siapkan ini untuk kami."
00:08:50Dan itu akan melakukan segalanya secara otomatis.
00:08:52Dalam skenario itu, kita hanya butuh beberapa hal.
00:08:55Seperti yang Anda lihat dalam rincian cara kerja rag,
00:08:58kita memerlukan model embedding.
00:08:59Jadi itu akan membutuhkan sebuah API.
00:09:02Saya menyarankan menggunakan OpenAI.
00:09:04Mereka memiliki model embedding yang sangat efektif.
00:09:07Jadi Anda akan membutuhkan kunci OpenAI.
00:09:09Anda memiliki kemampuan dengan light rag
00:09:11untuk membuat ini sepenuhnya berjalan secara lokal.
00:09:14Jadi Anda bisa memiliki model lokal melalui Ollama
00:09:17yang melakukan semua rincian dengan embedding,
00:09:20serta hal-hal terkait tanya jawab.
00:09:21Jadi pahami bahwa itu juga merupakan opsi, yakni sepenuhnya lokal.
00:09:24Kita akan melakukannya setengah-setengah.
00:09:25Jadi kita akan menyiapkan model embedding OpenAI
00:09:28serta model yang sebenarnya melakukan semua pekerjaannya.
00:09:31Dan kemudian kita juga butuh Docker.
00:09:34Jadi jika Anda belum pernah menggunakan Docker sebelumnya,
00:09:35cara menyiapkannya cukup mudah.
00:09:36Anda hanya butuh Docker desktop,
00:09:39cukup unduh, instal, dan biarkan berjalan
00:09:41saat Anda menjalankan light rag,
00:09:42karena ia akan membutuhkan sebuah kontainer.
00:09:45Jadi apa yang akan Anda lakukan sekarang
00:09:46adalah Anda akan membuka kode cloud
00:09:47dan Anda akan berkata, klon repo light rag,
00:09:50tulis berkas .env yang dikonfigurasi untuk OpenAI
00:09:53dengan GPT-5 mini dan text embedding three large,
00:09:56gunakan semua penyimpanan lokal default
00:09:58dan mulai dengan Docker compose,
00:10:00lalu berikan tautan ke light rag.
00:10:02Jika Anda melakukan itu, ia akan membereskan segalanya untuk Anda.
00:10:06Saya akan menaruh instruksi ini di dalam komunitas sekolah gratis,
00:10:10tautannya ada di deskripsi.
00:10:12Selain itu, yang juga akan ada di sana
00:10:13adalah saya akan tunjukkan sebentar lagi,
00:10:15beberapa keahlian terkait kode cloud dan light rag
00:10:17untuk memudahkannya dikendalikan dari kode cloud.
00:10:19Jadi Anda juga bisa menemukannya di sana.
00:10:22Dan Anda pasti sudah menduganya.
00:10:22Bicara soal sekolah saya,
00:10:24promosi singkat untuk masterclass kode cloud,
00:10:25yang merupakan cara nomor satu untuk jadi pengembang AI dari nol,
00:10:28terutama jika Anda tidak berasal dari latar belakang teknis,
00:10:31tautannya ada di komentar yang disematkan.
00:10:33Saya memperbarui ini secara harfiah setiap minggu,
00:10:35dalam dua minggu terakhir,
00:10:36saya sudah menambahkan sekitar satu setengah jam
00:10:38konten tambahan.
00:10:39Jadi pastikan untuk memeriksanya
00:10:40jika Anda serius ingin menguasai kode cloud
00:10:42dan AI secara umum.
00:10:44Tapi sekali lagi, jika Anda baru dan ini terasa terlalu berat,
00:10:46pastikan lihat sekolah gratisnya
00:10:47dengan banyak sumber daya hebat untuk Anda
00:10:49jika Anda baru saja memulai.
00:10:50Dan sebelum Anda menjalankan ini,
00:10:51pastikan Docker desktop Anda sudah berjalan
00:10:53dan siapkan kunci OpenAI tersebut
00:10:55lalu biarkan kode cloud bekerja.
00:10:56Setelah kode cloud selesai menginstalnya
00:10:58dan Anda menambahkan kunci OpenAI ke berkas EMV,
00:11:01Anda seharusnya melihat tampilan seperti ini.
00:11:02Pertama-tama, di Docker desktop Anda,
00:11:04Anda akan melihat kontainer bernama LightRag yang sedang aktif.
00:11:07Lalu kode cloud juga akan memberi Anda tautan
00:11:11ke localhost Anda, biasanya di port 9621.
00:11:13Dan itu akan membawa Anda ke halaman seperti ini.
00:11:15Ini adalah antarmuka web untuk LightRag.
00:11:18Di sinilah kita bisa mengunggah dokumen,
00:11:21kita bisa melihat grafik pengetahuan, mengambil data,
00:11:24dan kita juga bisa melihat
00:11:25semua titik akhir API yang berbeda,
00:11:28yang akan sangat berguna nanti.
00:11:30Dan yang Anda lihat di sini adalah dokumen
00:11:31yang sudah saya unggah untuk video ini.
00:11:33Mengunggah dokumen sangatlah sederhana.
00:11:35Kita cukup ke sisi kanan sini
00:11:36di bagian Unggah, lalu tinggal masukkan berkasnya.
00:11:39Pahami bahwa hanya ada jenis dokumen tertentu
00:11:42yang bisa kita masukkan ke sini, ya?
00:11:43Dokumen teks, PDF, pada dasarnya,
00:11:46Anda terbatas pada dokumen berbasis teks.
00:11:49Ada cara untuk menyiasati hal ini,
00:11:51terutama dengan gambar, bagan, dan tabel
00:11:56dan hal semacam itu.
00:11:57Kita akan membahasnya di bagian akhir
00:11:59karena agak di luar cakupan bahasan,
00:12:00tapi kita akan mempelajarinya.
00:12:02Jadi masukkan dokumen apa pun yang Anda mau ke sini,
00:12:04dan Anda akan bisa melihat statusnya
00:12:07saat sedang diunggah.
00:12:08Ini akan memakan waktu karena sekali lagi,
00:12:10ia sedang membangun grafik pengetahuan sambil melakukan ini.
00:12:12Jadi ini bisa memakan waktu cukup lama.
00:12:14Dan jika karena alasan apa pun Anda berada di halaman grafik pengetahuan
00:12:16karena ini bisa terjadi dan muncul pesan seperti,
00:12:18"Hei, grafiknya tidak termuat," atau semacamnya,
00:12:19Anda cukup mengaturnya ulang dengan menekan tombol ini
00:12:21di bagian kiri atas.
00:12:23Jika Anda pindah ke tab Pengambilan (Retrieval),
00:12:25di situlah Anda bisa mengajukan pertanyaan
00:12:27tentang grafik pengetahuan Anda ke model bahasa besar,
00:12:30yang dalam hal ini kemungkinan besar adalah OpenAI
00:12:31jika Anda menggunakan kunci yang sama untuk embedding.
00:12:33Dan di sebelah kanan sini, ada beberapa parameter.
00:12:36Sejujurnya, pada awalnya tidak banyak yang perlu diubah.
00:12:39Dan sebentar lagi, saya tunjukkan bagaimana kode Claude bisa melakukannya.
00:12:42Tapi saat Anda bertanya, sebagai contoh,
00:12:44saya punya banyak dokumen AI dan RAG di sana.
00:12:47Saya bertanya, "Apa gambaran biaya penuh
00:12:48untuk menjalankan RAG di tahun 2026?"
00:12:50Ia memberi saya jawaban yang cukup canggih.
00:12:53Dan selain itu, ia juga memberikan referensi
00:12:56untuk semua yang dilakukannya, kan?
00:12:57Lihat angka empat, tiga di sini, dua,
00:13:00karena di bagian bawah halaman,
00:13:01ia akan memberikan referensi yang sebenarnya
00:13:03untuk dokumen-dokumen yang diambilnya.
00:13:05Dan tentu saja di dalam grafik pengetahuan kita,
00:13:07kita menjelaskan tentang entitas dan hubungan.
00:13:09Jika saya mengklik salah satu entitas seperti OpenAI, misalnya,
00:13:12saya bisa melihat beberapa propertinya.
00:13:14Jadi ia melakukan lebih dari sekadar menarik hubungan dan entitas
00:13:17dalam proses embedding dengan LightRag.
00:13:19Ia masuk sedikit lebih dalam dan mengidentifikasi,
00:13:20"Oke, jenis entitas apa ini?
00:13:22Apakah ini organisasi atau orang?"
00:13:25Ia memiliki berkas spesifik yang diambilnya
00:13:27serta ID pemotongan data (chunking).
00:13:29Lalu Anda bisa melihat hubungan yang sebenarnya
00:13:31di bagian bawah kanan.
00:13:32Saya pindahkan ini sebentar.
00:13:33Jadi di bawah sini di bagian kanan bawah,
00:13:35jika Anda tidak bisa melihatnya secara visual,
00:13:36karena bisa jadi agak menumpuk di grafik,
00:13:40Anda bisa langsung klik di sini
00:13:41dan itu akan membawa Anda ke sana juga.
00:13:43API server inilah yang akan kita gunakan
00:13:46untuk menghubungkan hal ini ke kode Claude.
00:13:48Karena meskipun ini sudah bagus,
00:13:50saya tidak akan duduk di sini terus
00:13:51setiap kali saya ingin mengajukan pertanyaan
00:13:53tentang grafik pengetahuan saya lewat tab pengambilan.
00:13:56Itu terlalu merepotkan.
00:13:57Jadi sebagai gantinya, kita akan gunakan API ini.
00:14:00Sekarang, setiap API ini memiliki deskripsi,
00:14:03Anda bisa melihat parameter dan lainnya,
00:14:05setiap API ini bisa diubah menjadi sebuah keahlian (skill).
00:14:08Dan itulah yang akan saya lakukan dan tunjukkan di sini hari ini.
00:14:11Dengan begitu, saat Anda ingin kode Claude menggunakan light rag,
00:14:15kita tinggal masuk ke kode Claude di mana pun kita berada,
00:14:17dan berkata, "Hei, saya mau pakai skill query light rag
00:14:19dan bertanya tentang hal ini dan itu."
00:14:22Hasilnya sama saja dengan jika Anda berada
00:14:23di tab pengambilan dan mengajukan pertanyaan.
00:14:26Dan lebih baik lagi, kode Claude akan mengambil respons
00:14:28yang diberikan dan merangkumnya
00:14:30karena respons ini bisa sangat mendalam
00:14:32dan panjang jika berasal langsung dari light rag.
00:14:34Tapi jika Anda hanya ingin jawaban mentahnya,
00:14:36Anda juga bisa mengaturnya seperti itu.
00:14:37Intinya, meskipun ini memiliki antarmuka web,
00:14:40Anda tidak benar-benar harus berinteraksi dengannya
00:14:41jika Anda tidak mau.
00:14:42Sangat mudah untuk membawanya
00:14:44ke dalam ekosistem kode Claude kita.
00:14:46Ada empat skill besar yang menurut saya paling sering digunakan,
00:14:48yaitu query, upload, explore, dan status.
00:14:51Keempatnya juga akan ada di dalam sekolah gratis.
00:14:55Tapi apa yang akan paling sering Anda lakukan?
00:14:56Anda akan menambahkan dokumen-dokumen baru
00:14:58dan mengajukan pertanyaan tentang dokumen tersebut.
00:15:01Dan Anda mungkin juga ingin tahu,
00:15:02"Apa saja yang sebenarnya sudah saya masukkan ke sana?"
00:15:04Karena setelah punya banyak dokumen,
00:15:05Anda tentu ingin menghindari memasukkan dokumen yang sama
00:15:07secara berulang-ulang.
00:15:08Jadi jika saya menanyakan hal yang sama di dalam kode Claude,
00:15:12saya baru saja memanggil skill query light rag,
00:15:14ia mengirim permintaan tersebut ke light rag,
00:15:18yang sekali lagi, dihosting di komputer kita,
00:15:21berjalan di dalam kontainer Docker tersebut,
00:15:22dan akan memberikan responsnya kembali.
00:15:24Sekarang, Anda tidak terbatas pada sistem semi-lokal ini.
00:15:28Jika Anda adalah seseorang yang melakukan skalabilitas besar
00:15:30dengan light rag, Anda bisa menghosting ini
00:15:33di server Postgres standar.
00:15:36Anda punya banyak pilihan, Anda bisa menggunakan sesuatu seperti neon.
00:15:38Jadi ini mencakup seluruh spektrum.
00:15:40Anda bisa menggunakan lokal sepenuhnya atau memindahkan semua ini
00:15:43ke cloud jika Anda mau.
00:15:44Light rag sangat, sangat bisa disesuaikan.
00:15:46Dan inilah respons yang diberikan Clod code,
00:15:48yang sekali lagi, merupakan ringkasan dari respons mentah
00:15:52yang diberikan light rag kepada kita, dan juga mengutip sumbernya.
00:15:55Saya juga memintanya untuk memberikan respons mentah
00:15:57karena Anda juga bisa mendapatkannya,
00:15:58karena ia hanya membawanya kembali ke Clod code
00:16:00dalam bentuk respons JSON.
00:16:02Jadi hanya itu saja.
00:16:04Dan kemudian, ia juga memiliki referensi jika Anda menginginkannya.
00:16:07Jadi seperti yang baru saja Anda lihat, sangat mudah menginstal light rag
00:16:10dan sangat sederhana untuk mengintegrasikannya ke alur kerja Clod code Anda.
00:16:14Sekarang pertanyaannya adalah, oke, Chase, kedengarannya bagus.
00:16:18Saya mengerti secara konsep bahwa jika saya punya banyak dokumen,
00:16:20saya mungkin harus menggunakan ini.
00:16:22Nah, di mana batasannya?
00:16:23Kapan saya harus mulai mengintegrasikan light rag?
00:16:26Yah, tidak ada angka pastinya.
00:16:28Area abu-abunya adalah, saya akan katakan antara 500
00:16:33dan 2000 halaman dokumen.
00:16:36Saya tidak ingin hanya mengatakan dokumen
00:16:37karena siapa yang tahu seberapa besar dokumen itu nantinya,
00:16:39tapi sekitar 500 sampai 2000 halaman teks.
00:16:42Pada titik 2000 halaman, Anda mulai mencapai
00:16:44sekitar satu juta token.
00:16:47Di atas itu, mungkin masuk akal bagi Anda
00:16:50untuk mulai mengintegrasikan light rag,
00:16:52karena cara RAG diatur,
00:16:54itu akan lebih murah dan lebih cepat untuk dilakukan
00:16:57daripada hanya mengandalkan grep standar dari Clod code.
00:17:00Grep yang dihasilkan, cara Clod code mencari file
00:17:03sebenarnya sudah bagus.
00:17:04Ada alasan mengapa Clod code memilih untuk melakukannya.
00:17:07Namun, itu bukan dengan asumsi Anda memiliki 2000 halaman
00:17:12dokumen atau 4000 atau 5000, bukan?
00:17:14Ada batas atasnya.
00:17:16Hal baiknya adalah Anda tidak perlu membuat
00:17:19keputusan itu secara kaku, seperti yang Anda lihat,
00:17:22sangat mudah untuk mengimplementasikan ini.
00:17:24Jadi, bereksperimenlah saja.
00:17:26Jika Anda merasa punya banyak dokumen dan berpikir,
00:17:28"Hei, apakah kita harus menggunakan RAG pada titik ini?"
00:17:30Yah, saya tidak tahu, cobalah saja.
00:17:32Tidak butuh waktu lama untuk melakukannya.
00:17:34Bagian yang paling melelahkan adalah proses embedding.
00:17:36Itu pasti memakan waktu sejenak, tapi tidak melumpuhkan.
00:17:40Dan biayanya tidak gila, terutama dengan light rag.
00:17:43Jika Anda membandingkannya lagi dengan sistem graph rag lainnya
00:17:45seperti Microsoft graph rag, ini hanya sebagian kecil,
00:17:48persentase yang sangat kecil dari biayanya.
00:17:49Dan pada ukuran dokumen yang sangat besar,
00:17:52perbandingan biaya RAG dengan sesuatu seperti grep
00:17:56bisa mencapai seribu kali lebih murah.
00:17:58Ada sebuah studi yang dilakukan musim panas lalu
00:18:04bahwa menggunakan RAG 1250 kali lebih murah
00:18:07dalam situasi seperti itu.
00:18:08Anda bisa melihatnya di sini antara textual rag
00:18:10berbanding textual LLM, serta waktu respons yang sebenarnya.
00:18:14Sekadar informasi, ini dari Juli tahun lalu.
00:18:19Jadi model-modelnya telah berubah.
00:18:20Saya sangat ragu perbedaannya akan segila itu
00:18:23ketika kita membandingkan RAG dengan situasi teknologi standar Anda.
00:18:26Dan ini juga saat Gemini 2.0.
00:18:28Kita belum membicarakan tentang harness.
00:18:29Jadi banyak hal telah berubah,
00:18:31tapi apakah perubahannya sudah menutup celah 1250 kali lipat itu?
00:18:36Mungkin, mungkin tidak.
00:18:39Saya rasa tidak.
00:18:40Bagaimanapun, cobalah saja.
00:18:42Saya rasa tidak ada ruginya.
00:18:44Hal lain dengan light rag adalah ide bahwa,
00:18:46hei, jika saya ingin mengunggah dokumen,
00:18:48kita sudah membicarakan ini sedikit sebelumnya.
00:18:49Apa yang kita lakukan jika kita punya tabel, grafik,
00:18:53hal-hal yang bukan teks?
00:18:54Bisakah light rag menanganinya?
00:18:57Tidak tepat, tapi kita bisa memperbaikinya.
00:18:59Dan jawabannya adalah "rag anything"
00:19:02dari pembuat yang sama dengan light rag.
00:19:04Dan ini adalah sesuatu yang pada dasarnya bisa multimodal.
00:19:07Dan ini bisa kita pasang
00:19:09langsung di atas light rag.
00:19:10Sekarang, saya benci mengecewakan Anda,
00:19:13tapi itu akan berada di luar hari ini,
00:19:15di luar lingkup video hari ini.
00:19:17Namun, di video besok,
00:19:18menurut Anda apa yang akan kita lakukan?
00:19:19Besok, kita akan membahas rag anything
00:19:22dan menunjukkan cara mengintegrasikannya
00:19:25ke dalam apa yang kita bangun dengan light rag.
00:19:27Jadi itu akan menjadi kombinasi yang hebat.
00:19:28Jadi jika itu adalah sesuatu yang Anda minati,
00:19:31sukai dan berlanggananlah,
00:19:32karena kita akan membahasnya besok.
00:19:34Dan pada catatan itu,
00:19:35di sinilah kita akan menyelesaikannya.
00:19:39Semoga Anda menikmatinya.
00:19:41Ini adalah video pertama saya juga, dengan pengaturan kamera baru ini.
00:19:43Pencahayaannya, saya sudah bisa tahu kalau ini tidak,
00:19:46tidak persis seperti yang saya inginkan.
00:19:48Jadi saya minta maaf untuk itu semua.
00:19:49Masih memperbaiki kekurangan yang ada,
00:19:50saya senang ini berfungsi sama sekali
00:19:52dan kameranya tidak kepanasan di tengah-tengah video ini.
00:19:55Tapi ya, semua keterampilannya ada di dalam sekolah gratis.
00:19:58Hal-hal tentang RAG sangat menarik, terutama light rag.
00:20:01Ini produk yang luar biasa.
00:20:02Saya sudah menggunakannya cukup lama.
00:20:03Jadi 100%, 100% cobalah benda ini.
00:20:06Dan sangat mudah untuk diintegrasikan
00:20:07di dalam collage code seperti yang Anda lihat.
00:20:08Jadi lihat sekolah gratis untuk keterampilannya,
00:20:12serta perintahnya jika Anda membutuhkannya.
00:20:14Sejujurnya,
00:20:15jika Anda hanya mengarahkan cloud code ke light rag,
00:20:16ia akan mengaturnya dengan baik dengan sendirinya.
00:20:19Tapi selain itu,
00:20:20pastikan untuk melihat Chase AI Plus
00:20:21jika Anda ingin mencoba masterclass itu.
00:20:24Dan sampai jumpa lagi.