Claude Code Itu Mahal. Server MCP Ini Mengatasinya (Context Mode)

BBetter Stack
컴퓨터/소프트웨어창업/스타트업AI/미래기술

Transcript

00:00:00Jika Anda pernah memprogram di Claude Code, Anda mungkin pernah mengalami penumpukan konteks.
00:00:05Masalahnya adalah setiap panggilan alat MCP di Claude Code sangatlah mahal karena setiap
00:00:11panggilan tersebut membuang seluruh output-nya langsung ke dalam jendela konteks 200 ribu model.
00:00:17Dan semakin banyak alat yang Anda gunakan, semakin cepat konteks Anda terkuras. Dalam skenario tertentu,
00:00:22Anda hanya punya waktu 30 menit penggunaan agen aktif sebelum konteks Anda memadat.
00:00:28Dan saat itulah AI mulai melupakan file, tugas, dan keputusan krusial. Belum lagi Anda menghabiskan
00:00:34banyak uang untuk token tersebut. Tapi ada server MCP yang bisa mengatasi masalah krusial ini.
00:00:40Namanya adalah Context Mode. Di video hari ini, kita akan melihat apa yang dilakukan Context Mode,
00:00:44cara kerjanya, dan mencobanya sendiri dengan sebuah demo singkat.
00:00:48Ini akan sangat menyenangkan, jadi mari kita mulai.
00:00:55Untuk memahami mengapa ini terjadi, mari kita lihat perhitungannya. Satu cuplikan Playwright dari
00:01:00sebuah halaman web berukuran sekitar 56 kilobyte. Membaca 20 masalah GitHub adalah 59 kilobyte. Jika kita melakukan operasi ini
00:01:08beberapa kali dalam fase perencanaan, Anda mungkin sudah menghabiskan 70% jendela konteks bahkan sebelum
00:01:14agen tersebut menulis satu baris kode pun. Context Mode bertindak sebagai lapisan virtualisasi.
00:01:20Alih-alih AI berbicara langsung ke OS Anda, ia berbicara ke sandbox. Dan alih-alih membuang output
00:01:26yang masif, Context Mode mengindeksnya di database SQLite lokal menggunakan FTS5, alias pencarian teks lengkap.
00:01:34Dan hasilnya cukup signifikan. Sebagai contoh, cuplikan Playwright 56k itu berkurang menjadi 299
00:01:41byte, pengurangan sebesar 99%. Atau contohnya, CSV analitik ini dipadatkan menjadi 222 byte,
00:01:49yang merupakan pengurangan hampir 100%. Tapi menghemat token hanyalah sebagian dari perbaikan ini.
00:01:56Kegunaan sebenarnya di sini adalah kontinuitas sesi. Kita semua pernah melihat bagaimana riwayat agen memadat
00:02:03dan tiba-tiba Anda kehilangan jejak kode yang ia tulis 10 menit sebelumnya. Namun Context Mode menggunakan hook
00:02:09untuk memantau setiap pengeditan file, operasi git, dan tugas sub-agen. Saat percakapan Anda memadat,
00:02:15Context Mode membuat snapshot prioritas berjenjang, biasanya di bawah 2 kilobyte, dan memasukkannya kembali.
00:02:22Ini pada dasarnya adalah titik simpan (save checkpoint) untuk sesi pemrograman Anda. Jadi secara hipotetis Anda bisa
00:02:27memperpanjang waktu sesi Anda dari 30 menit menjadi sekitar 3 jam. Alat ini juga melacak keputusan dan kesalahan.
00:02:34Misalnya, jika AI mencoba perbaikan yang gagal 20 menit lalu, ia tidak akan mengulang kesalahan itu meski konteksnya diatur ulang.
00:02:40Dan instalasinya sangat mudah. Jika Anda menggunakan Claude Code, pertama-tama tambahkan marketplace Context Mode
00:02:46dengan menjalankan perintah berikut. Kemudian jalankan perintah instalasi plugin. Dan setelah selesai,
00:02:53Anda siap menggunakannya. Setelah terinstal, ia menangani server MCP, hook, dan
00:02:57instruksi perutean secara otomatis. Jika Anda menggunakan Gemini CLI atau VS Code Copilot, Anda bisa menjalankan
00:03:03npm install context-mode dan menambahkan konfigurasi ke pengaturan Anda. Sekarang mari kita lihat Context Mode beraksi.
00:03:10Saya punya perintah Python sederhana di sini yang akan membuat file log akses tiruan yang berisi
00:03:15daftar banyak permintaan API tiruan dan kode statusnya. Dan setiap baris keseratus adalah log
00:03:22kesalahan 500. Sekarang kita bisa menjalankan Claude dan bertanya, "Hei, gunakan Context Mode untuk mengindeks access.log."
00:03:30Saya ingin menemukan semua pola kesalahan 500 dan merangkum alamat IP yang terkait dengannya. Dan di
00:03:36latar belakang, Context Mode membagi 5.000 baris file access.log ke dalam database SQLite
00:03:44FTS5 miliknya sendiri. Dan Claude hanya menerima konfirmasi bahwa file tersebut telah diindeks, bukan 5.000 baris mentah
00:03:51dari file tersebut. Sekarang Claude dapat mencari database indeks secara cerdas untuk menanyakan isinya alih-alih
00:03:57mengurai seluruh file. Dan di sini kita bisa melihat temuan yang dikembalikan oleh Claude. Namun yang lebih penting,
00:04:02mari kita lihat penghematan biayanya. Kita bisa melakukannya dengan menjalankan context-mode:cts-stats, dan kita bisa
00:04:09memeriksa seberapa banyak data yang dihemat oleh Context Mode dalam sesi saat ini. Dan Anda bisa melihat hasilnya
00:04:15tepat di sini. Alih-alih membuang seluruh 20 kilobyte ke dalam percakapan, Context Mode menyimpan
00:04:21sekitar 5 kilobyte data mentah tersebut di sandbox. Dan hasil ini cukup mengesankan untuk file yang
00:04:27kecil. Ini menghemat sekitar 1.200 token agar tidak masuk ke jendela konteks. Jadi secara keseluruhan, kita mendapatkan
00:04:34pengurangan 25% yang bagus saat menjalankan tes kecil ini. Itu mungkin terdengar tidak seberapa, tapi perlu diingat bahwa
00:04:41dalam sesi Claude standar, data tersebut akan terus ada di sana selamanya dan dikirim ulang dengan setiap
00:04:47pesan yang Anda kirim. Dengan menyimpannya di sandbox, kita sudah mulai memperpanjang umur
00:04:53sesi ini. Dan file demo ini cukup kecil, namun jika Anda berurusan dengan file yang lebih besar,
00:04:58penghematan di sini bisa sangat besar. Jika Anda menjalankan proyek riset repositori besar atau menganalisis
00:05:03log skala produksi, penghematan 1.200 token itu bisa dengan mudah berubah menjadi 100.000 token. Namun tujuannya
00:05:11di sini bukan hanya tentang menghemat biaya API, meskipun itu bonus yang bagus. Ini juga tentang menjaga
00:05:18kecerdasan model. Ketika Anda membersihkan gangguan dari jendela konteks, Anda menyisakan
00:05:24lebih banyak ruang untuk penalaran yang sebenarnya. Anda memberi Claude ruang yang ia butuhkan untuk menjadi insinyur yang lebih baik.
00:05:30Jadi jika Anda membangun proyek kompleks dengan agen AI, cobalah alat ini dan lihat seberapa
00:05:35jauh Anda bisa memperpanjang sesi sebelum agen mulai memadat dan melupakan banyak hal.
00:05:41Dan jika Anda menyukai ulasan teknis ini, beri tahu saya dengan menekan tombol suka
00:05:45di bawah video ini. Dan jangan lupa untuk berlangganan saluran kami. Saya
00:05:50Andris dari Better Stack, sampai jumpa di video berikutnya.

Key Takeaway

Context Mode adalah server MCP revolusioner yang mengatasi pembengkakan konteks dan biaya tinggi pada Claude Code dengan mengindeks data secara lokal, sehingga memperpanjang durasi sesi dan menjaga kecerdasan penalaran AI.

Highlights

Claude Code menghadapi masalah 'context bloat' di mana setiap panggilan alat MCP menghabiskan jendela konteks 200 ribu model dengan cepat.

Context Mode berfungsi sebagai lapisan virtualisasi dan sandbox yang mengindeks output besar ke dalam database SQLite lokal menggunakan FTS5.

Penggunaan Context Mode dapat mengurangi ukuran data secara drastis, misalnya cuplikan Playwright 56KB berkurang 99% menjadi hanya 299 byte.

Fitur 'session continuity' memungkinkan AI melacak pengeditan file, operasi git, dan keputusan sebelumnya bahkan setelah jendela konteks diatur ulang.

Alat ini secara hipotetis memperpanjang durasi sesi pemrograman aktif dari 30 menit menjadi sekitar 3 jam.

Instalasi mudah tersedia untuk Claude Code, Gemini CLI, dan VS Code Copilot melalui perintah npm sederhana.

Selain menghemat biaya token API, alat ini menjaga kecerdasan model dengan memberikan lebih banyak ruang untuk penalaran yang sebenarnya.

Timeline

Masalah Penumpukan Konteks pada Claude Code

Pembicara menjelaskan tantangan utama saat memprogram dengan Claude Code, yaitu penggunaan jendela konteks yang sangat boros dan mahal. Setiap panggilan alat MCP membuang seluruh outputnya langsung ke jendela konteks 200 ribu model, yang menyebabkan AI cepat melupakan detail krusial. Dalam banyak skenario, pengguna hanya memiliki waktu 30 menit penggunaan aktif sebelum memori AI mulai memadat. Hal ini tidak hanya menghambat produktivitas tetapi juga menghabiskan banyak biaya untuk token. Bagian ini memperkenalkan Context Mode sebagai solusi strategis untuk mengatasi masalah kritis tersebut secara efektif.

Mekanisme Kerja dan Virtualisasi Context Mode

Bagian ini merinci perhitungan teknis di balik pemborosan data, seperti cuplikan Playwright sebesar 56 kilobyte yang dapat menghabiskan 70% konteks dalam fase perencanaan. Context Mode bekerja sebagai lapisan virtualisasi yang mengarahkan komunikasi AI ke sebuah sandbox, bukan langsung ke sistem operasi. Alih-alih mengirim data mentah yang masif, sistem ini mengindeks informasi menggunakan database SQLite lokal dengan fitur pencarian teks lengkap FTS5. Hasilnya sangat signifikan dengan pengurangan ukuran data hingga 99% pada berbagai jenis file seperti cuplikan web dan CSV analitik. Efisiensi ini menjadi fondasi utama bagi penghematan token yang dijanjikan oleh alat ini.

Kontinuitas Sesi dan Pelacakan Keputusan

Selain penghematan biaya, nilai jual utama dari Context Mode adalah kemampuannya menjaga kontinuitas sesi pemrograman yang panjang. Alat ini menggunakan hook khusus untuk memantau setiap pengeditan file, operasi git, dan tugas sub-agen secara real-time. Ketika percakapan mulai penuh, Context Mode membuat snapshot prioritas berjenjang di bawah 2 kilobyte untuk dimasukkan kembali sebagai titik simpan (checkpoint). Hal ini mencegah AI mengulangi kesalahan yang sama yang telah dilakukan sebelumnya karena riwayat keputusan tetap terlacak. Dengan cara ini, efektivitas sesi dapat diperpanjang dari hitungan menit menjadi beberapa jam tanpa kehilangan konteks penting.

Panduan Instalasi dan Integrasi Platform

Proses instalasi Context Mode dijelaskan sebagai langkah yang sangat mudah dan cepat bagi para pengembang. Bagi pengguna Claude Code, integrasi dilakukan dengan menambahkan marketplace dan menjalankan perintah instalasi plugin yang akan menangani konfigurasi server MCP secara otomatis. Pengguna platform lain seperti Gemini CLI atau VS Code Copilot juga dapat menginstalnya melalui npm dan menambahkan konfigurasi ke pengaturan mereka. Bagian ini menekankan bahwa alat ini dirancang untuk bekerja di latar belakang tanpa memerlukan manajemen manual yang rumit dari pengguna. Kemudahan adopsi ini bertujuan agar pengembang dapat segera merasakan manfaat optimasi konteks dalam alur kerja mereka.

Demo Praktis dan Analisis Statistik Penghematan

Pembicara mendemonstrasikan kemampuan alat ini dengan menganalisis file log akses tiruan yang berisi 5.000 baris data melalui perintah Python. Context Mode berhasil membagi file besar tersebut ke dalam database indeks sehingga Claude hanya menerima konfirmasi indeks tanpa harus memproses ribuan baris teks mentah. Melalui perintah statistik khusus, terlihat bahwa data sebesar 20 kilobyte dapat dikompresi secara virtual sehingga menghemat sekitar 1.200 token dalam satu sesi kecil. Pada proyek riset repositori besar atau log produksi, penghematan ini diprediksi dapat mencapai hingga 100.000 token. Demo ini membuktikan bahwa efisiensi teknis berbanding lurus dengan pengurangan biaya operasional API yang nyata.

Kesimpulan: Menjaga Kecerdasan Model AI

Sebagai penutup, video menekankan bahwa tujuan akhir dari Context Mode bukan sekadar penghematan biaya, melainkan menjaga performa intelektual model AI. Dengan membersihkan gangguan atau 'noise' dari jendela konteks, model seperti Claude memiliki ruang lebih luas untuk melakukan penalaran teknis yang kompleks. Hal ini memungkinkan AI untuk menjadi mitra insinyur yang lebih baik dan lebih konsisten dalam proyek-proyek berskala besar. Pembicara mengajak penonton untuk mencoba alat ini pada proyek agen AI mereka sendiri untuk melihat perbedaannya dalam durasi sesi. Video diakhiri dengan ajakan untuk mendukung saluran melalui suka dan langganan bagi pemirsa yang menyukai ulasan teknis tersebut.

Community Posts

No posts yet. Be the first to write about this video!

Write about this video