00:00:00Jika Anda pernah memprogram di Claude Code, Anda mungkin pernah mengalami penumpukan konteks.
00:00:05Masalahnya adalah setiap panggilan alat MCP di Claude Code sangatlah mahal karena setiap
00:00:11panggilan tersebut membuang seluruh output-nya langsung ke dalam jendela konteks 200 ribu model.
00:00:17Dan semakin banyak alat yang Anda gunakan, semakin cepat konteks Anda terkuras. Dalam skenario tertentu,
00:00:22Anda hanya punya waktu 30 menit penggunaan agen aktif sebelum konteks Anda memadat.
00:00:28Dan saat itulah AI mulai melupakan file, tugas, dan keputusan krusial. Belum lagi Anda menghabiskan
00:00:34banyak uang untuk token tersebut. Tapi ada server MCP yang bisa mengatasi masalah krusial ini.
00:00:40Namanya adalah Context Mode. Di video hari ini, kita akan melihat apa yang dilakukan Context Mode,
00:00:44cara kerjanya, dan mencobanya sendiri dengan sebuah demo singkat.
00:00:48Ini akan sangat menyenangkan, jadi mari kita mulai.
00:00:55Untuk memahami mengapa ini terjadi, mari kita lihat perhitungannya. Satu cuplikan Playwright dari
00:01:00sebuah halaman web berukuran sekitar 56 kilobyte. Membaca 20 masalah GitHub adalah 59 kilobyte. Jika kita melakukan operasi ini
00:01:08beberapa kali dalam fase perencanaan, Anda mungkin sudah menghabiskan 70% jendela konteks bahkan sebelum
00:01:14agen tersebut menulis satu baris kode pun. Context Mode bertindak sebagai lapisan virtualisasi.
00:01:20Alih-alih AI berbicara langsung ke OS Anda, ia berbicara ke sandbox. Dan alih-alih membuang output
00:01:26yang masif, Context Mode mengindeksnya di database SQLite lokal menggunakan FTS5, alias pencarian teks lengkap.
00:01:34Dan hasilnya cukup signifikan. Sebagai contoh, cuplikan Playwright 56k itu berkurang menjadi 299
00:01:41byte, pengurangan sebesar 99%. Atau contohnya, CSV analitik ini dipadatkan menjadi 222 byte,
00:01:49yang merupakan pengurangan hampir 100%. Tapi menghemat token hanyalah sebagian dari perbaikan ini.
00:01:56Kegunaan sebenarnya di sini adalah kontinuitas sesi. Kita semua pernah melihat bagaimana riwayat agen memadat
00:02:03dan tiba-tiba Anda kehilangan jejak kode yang ia tulis 10 menit sebelumnya. Namun Context Mode menggunakan hook
00:02:09untuk memantau setiap pengeditan file, operasi git, dan tugas sub-agen. Saat percakapan Anda memadat,
00:02:15Context Mode membuat snapshot prioritas berjenjang, biasanya di bawah 2 kilobyte, dan memasukkannya kembali.
00:02:22Ini pada dasarnya adalah titik simpan (save checkpoint) untuk sesi pemrograman Anda. Jadi secara hipotetis Anda bisa
00:02:27memperpanjang waktu sesi Anda dari 30 menit menjadi sekitar 3 jam. Alat ini juga melacak keputusan dan kesalahan.
00:02:34Misalnya, jika AI mencoba perbaikan yang gagal 20 menit lalu, ia tidak akan mengulang kesalahan itu meski konteksnya diatur ulang.
00:02:40Dan instalasinya sangat mudah. Jika Anda menggunakan Claude Code, pertama-tama tambahkan marketplace Context Mode
00:02:46dengan menjalankan perintah berikut. Kemudian jalankan perintah instalasi plugin. Dan setelah selesai,
00:02:53Anda siap menggunakannya. Setelah terinstal, ia menangani server MCP, hook, dan
00:02:57instruksi perutean secara otomatis. Jika Anda menggunakan Gemini CLI atau VS Code Copilot, Anda bisa menjalankan
00:03:03npm install context-mode dan menambahkan konfigurasi ke pengaturan Anda. Sekarang mari kita lihat Context Mode beraksi.
00:03:10Saya punya perintah Python sederhana di sini yang akan membuat file log akses tiruan yang berisi
00:03:15daftar banyak permintaan API tiruan dan kode statusnya. Dan setiap baris keseratus adalah log
00:03:22kesalahan 500. Sekarang kita bisa menjalankan Claude dan bertanya, "Hei, gunakan Context Mode untuk mengindeks access.log."
00:03:30Saya ingin menemukan semua pola kesalahan 500 dan merangkum alamat IP yang terkait dengannya. Dan di
00:03:36latar belakang, Context Mode membagi 5.000 baris file access.log ke dalam database SQLite
00:03:44FTS5 miliknya sendiri. Dan Claude hanya menerima konfirmasi bahwa file tersebut telah diindeks, bukan 5.000 baris mentah
00:03:51dari file tersebut. Sekarang Claude dapat mencari database indeks secara cerdas untuk menanyakan isinya alih-alih
00:03:57mengurai seluruh file. Dan di sini kita bisa melihat temuan yang dikembalikan oleh Claude. Namun yang lebih penting,
00:04:02mari kita lihat penghematan biayanya. Kita bisa melakukannya dengan menjalankan context-mode:cts-stats, dan kita bisa
00:04:09memeriksa seberapa banyak data yang dihemat oleh Context Mode dalam sesi saat ini. Dan Anda bisa melihat hasilnya
00:04:15tepat di sini. Alih-alih membuang seluruh 20 kilobyte ke dalam percakapan, Context Mode menyimpan
00:04:21sekitar 5 kilobyte data mentah tersebut di sandbox. Dan hasil ini cukup mengesankan untuk file yang
00:04:27kecil. Ini menghemat sekitar 1.200 token agar tidak masuk ke jendela konteks. Jadi secara keseluruhan, kita mendapatkan
00:04:34pengurangan 25% yang bagus saat menjalankan tes kecil ini. Itu mungkin terdengar tidak seberapa, tapi perlu diingat bahwa
00:04:41dalam sesi Claude standar, data tersebut akan terus ada di sana selamanya dan dikirim ulang dengan setiap
00:04:47pesan yang Anda kirim. Dengan menyimpannya di sandbox, kita sudah mulai memperpanjang umur
00:04:53sesi ini. Dan file demo ini cukup kecil, namun jika Anda berurusan dengan file yang lebih besar,
00:04:58penghematan di sini bisa sangat besar. Jika Anda menjalankan proyek riset repositori besar atau menganalisis
00:05:03log skala produksi, penghematan 1.200 token itu bisa dengan mudah berubah menjadi 100.000 token. Namun tujuannya
00:05:11di sini bukan hanya tentang menghemat biaya API, meskipun itu bonus yang bagus. Ini juga tentang menjaga
00:05:18kecerdasan model. Ketika Anda membersihkan gangguan dari jendela konteks, Anda menyisakan
00:05:24lebih banyak ruang untuk penalaran yang sebenarnya. Anda memberi Claude ruang yang ia butuhkan untuk menjadi insinyur yang lebih baik.
00:05:30Jadi jika Anda membangun proyek kompleks dengan agen AI, cobalah alat ini dan lihat seberapa
00:05:35jauh Anda bisa memperpanjang sesi sebelum agen mulai memadat dan melupakan banyak hal.
00:05:41Dan jika Anda menyukai ulasan teknis ini, beri tahu saya dengan menekan tombol suka
00:05:45di bawah video ini. Dan jangan lupa untuk berlangganan saluran kami. Saya
00:05:50Andris dari Better Stack, sampai jumpa di video berikutnya.