Claude Code مكلف للغاية.. خادم MCP هذا يحل المشكلة (Context Mode)

BBetter Stack
Computing/SoftwareSmall Business/StartupsInternet Technology

Transcript

00:00:00إذا كنت تبرمج باستخدام Claude code، فمن المحتمل أنك واجهت مشكلة تضخم السياق (context bloat). المشكلة
00:00:05هي أن كل استدعاء لأداة MCP في Claude code مكلف للغاية لأن كل واحد من هذه
00:00:11الاستدعاءات يفرغ مخرجاته الكاملة مباشرة في نافذة سياق النموذج التي تبلغ 200 ألف توكن. وكلما زادت الأدوات
00:00:17التي تمتلكها، زادت سرعة استهلاك السياق لديك. وفي حالات معينة،
00:00:22قد يستغرق الأمر 30 دقيقة فقط من استخدام العميل البرمجي النشط قبل أن يتقلص السياق. وعندها
00:00:28يبدأ الذكاء الاصطناعي في نسيان الملفات، والمهام، والقرارات الحاسمة. ناهيك عن أنك تنفق
00:00:34الكثير من المال على تلك التوكنز. ولكن هناك خادم MCP يحل هذه المشكلة الجوهرية.
00:00:40يطلق عليه “context-mode”. في فيديو اليوم، سنلقي نظرة على ما يفعله context-mode،
00:00:44وكيف يعمل، وسنجربه بأنفسنا من خلال عرض تجريبي بسيط.
00:00:48سيكون الأمر ممتعاً للغاية، فلنبدأ.
00:00:55لفهم سبب حدوث ذلك، دعونا نلقي نظرة على الأرقام. لقطة Playwright واحدة
00:01:00لصفحة ويب تبلغ مساحتها حوالي 56 كيلوبايت. وقراءة 20 مشكلة على GitHub تستهلك 59 كيلوبايت. إذا قمنا بهذه العمليات
00:01:08في مرحلة التخطيط عدة مرات في جلسة واحدة، فمن المحتمل أنك استهلكت 70% من نافذتك قبل أن
00:01:14يكتب العميل البرمجي سطراً واحداً من الكود. يعمل context-mode كطبقة افتراضية.
00:01:20بدلاً من تواصل الذكاء الاصطناعي مباشرة مع نظام التشغيل، فإنه يتواصل مع بيئة معزولة (sandbox). وبدلاً من تفريغ
00:01:26مخرجات ضخمة، يقوم context-mode بفهرستها في قاعدة بيانات SQLite محلية باستخدام FTS5، المعروف بالبحث الكامل في النص.
00:01:34والنتيجة مذهلة للغاية. على سبيل المثال، تلك اللقطة من playwright بحجم 56 كيلوبايت يتم تقليصها إلى 299
00:01:41بايت، أي بنسبة تقليل 99%. أو مثلاً، هذا الملف التحليلي CSV يتم ضغطه إلى 222 بايت،
00:01:49وهو ما يقارب تقليلاً بنسبة 100%. لكن توفير التوكنز هو جزء واحد فقط من الحل. الفائدة الحقيقية هنا
00:01:56هي استمرارية الجلسة. لقد رأينا جميعاً كيف تتقلص سجلات العميل البرمجي وفجأة تفقد أثر
00:02:03الكود الذي كتبه قبل 10 دقائق. لكن context-mode يستخدم خطافات (hooks) لمراقبة كل تعديل على الملفات،
00:02:09وعمليات git، ومهام العميل الفرعي. عندما تتقلص محادثتك، يقوم context-mode ببناء
00:02:15لقطة ذات مستويات أولوية، عادةً ما تكون أقل من 2 كيلوبايت، ويعيد حقنها. إنها بمثابة نقطة حفظ
00:02:22لجلسة البرمجة الخاصة بك. لذا يمكنك نظرياً تمديد وقت جلستك من 30
00:02:27دقيقة إلى حوالي 3 ساعات. كما أنه يتتبع القرارات والأخطاء. على سبيل المثال، إذا حاول
00:02:34الذكاء الاصطناعي إجراء إصلاح فشل قبل 20 دقيقة، فلن يكرر هذا الخطأ حتى بعد إعادة ضبط السياق. و
00:02:40تثبيته بسيط للغاية. إذا كنت تستخدم Claude code، فقم أولاً بإضافة متجر context-mode
00:02:46عن طريق تشغيل الأمر التالي. ثم قم بتشغيل أمر تثبيت الإضافة. وبمجرد الانتهاء،
00:02:53ستكون جاهزاً. بمجرد تثبيته، فإنه يتولى خادم MCP والخطافات
00:02:57وتعليمات التوجيه تلقائياً. إذا كنت تستخدم Gemini CLI أو VS Code Copilot، فيمكنك تشغيل
00:03:03npm install context-mode وإضافة التكوين إلى إعداداتك. الآن دعونا نرى context-mode قيد العمل. لدي
00:03:10هذا الأمر البسيط بلغة بايثون هنا والذي سيقوم بإنشاء ملف سجل وصول وهمي يحتوي على
00:03:15قائمة بمجموعة من طلبات API الوهمية ورموز الحالة الخاصة بها. وكل سطر مائة هو عبارة عن
00:03:22سجل خطأ 500. الآن يمكننا تشغيل Claude ونقول: مرحباً، استخدم context-mode لفهرسة access.log. أريد
00:03:30العثور على جميع أنماط الخطأ 500 وتلخيص عناوين IP المرتبطة بها. وفي
00:03:36الخلفية، يقوم context-mode بتقسيم الـ 5000 سطر من ملف access.log إلى قاعدة بيانات SQLite
00:03:44FTS5 خاصة به. ويتلقى Claude فقط تأكيداً بأن الملف قد تمت فهرسته، وليس الـ 5000 سطر
00:03:51الخام للملف. والآن يمكن لـ Claude البحث بذكاء في قاعدة البيانات المفهرسة للاستعلام عن المحتويات بدلاً
00:03:57من تحليل الملف بالكامل. وهنا يمكننا رؤية النتائج التي أرجعها Claude. ولكن الأهم من ذلك،
00:04:02دعونا ننظر إلى توفير التكاليف. يمكننا القيام بذلك عن طريق تشغيل context-mode, column CTS stats، ويمكننا
00:04:09التحقق من كمية البيانات التي وفرها context-mode في هذه الجلسة الحالية. ويمكنكم رؤية النتائج
00:04:15هنا تماماً. بدلاً من وضع الـ 20 كيلوبايت كاملة في المحادثة، احتفظ context-mode
00:04:21بحوالي 5 كيلوبايت من تلك البيانات الخام في البيئة المعزولة. وهذه النتيجة مبهرة للغاية بالنسبة
00:04:27لملف صغير. لقد وفر حوالي 1200 توكن من دخول نافذة السياق. لذا بشكل عام، حصلنا على
00:04:34تقليل جيد بنسبة 25% من خلال هذا الاختبار البسيط. قد لا يبدو هذا كثيراً، لكن تذكر
00:04:41أنه في جلسة Claude العادية، كانت البيانات ستبقى هناك للأبد ويتم إرسالها مع كل
00:04:47رسالة ترسلها. ومن خلال إبقائها في البيئة المعزولة، بدأنا بالفعل في إطالة عمر
00:04:53هذه الجلسة. وملف العرض هذا صغير جداً، ولكن إذا كنت تتعامل مع ملفات أكبر،
00:04:58فإن التوفير هنا قد يكون هائلاً. إذا كنت تقوم بمشروع بحثي ضخم في مستودع كود أو تحلل
00:05:03سجلات بمقياس الإنتاج، فإن توفير الـ 1200 توكن هذا يمكن أن يتحول بسهولة إلى 100,000 توكن. لكن الهدف هنا
00:05:11ليس مجرد توفير المال في تكاليف API، رغم أن ذلك ميزة جيدة. بل يتعلق أيضاً بالحفاظ على
00:05:18ذكاء النموذج. فعندما تزيل الضجيج من نافذة السياق، فإنك تترك
00:05:24مساحة أكبر للتفكير المنطقي الفعلي. أنت تمنح Claude المساحة التي يحتاجها ليكون مهندساً أفضل.
00:05:30لذا، إذا كنت تبني مشاريع معقدة باستخدام وكلاء الذكاء الاصطناعي، جرب هذه الأداة وشاهد
00:05:35كم يمكنك تمديد الجلسات قبل أن يبدأ الوكيل في تقليص السياق ونسيان الأمور.
00:05:41وإذا استمتعت بهذا التحليل التقني، يرجى إخباري من خلال الضغط على زر الإعجاب
00:05:45الموجود أسفل الفيديو. وأيضاً لا تنسوا الاشتراك في قناتنا. كان معكم
00:05:50Andris من Better Stack، وسأراكم في الفيديوهات القادمة.

Key Takeaway

يعتبر context-mode حلاً ثورياً لمشكلة استهلاك التوكنز المفرط في Claude Code، حيث يطيل عمر جلسات البرمجة ويحافظ على ذكاء النموذج عبر فهرسة البيانات وتلخيص السياق بذكاء.

Highlights

مشكلة تضخم السياق (context bloat) في Claude Code تؤدي إلى استهلاك 200 ألف توكن بسرعة كبيرة وفقدان الذاكرة التقنية.

يعمل خادم MCP المسمى "context-mode" كطبقة افتراضية تعزل الذكاء الاصطناعي عن نظام التشغيل لتقليل استهلاك البيانات.

يستخدم النظام قاعدة بيانات SQLite محلية مع تقنية FTS5 لفهرسة المخرجات الضخمة وتقليص حجمها بنسبة تصل إلى 99%.

يوفر context-mode ميزة "استمرارية الجلسة" عبر أخذ لقطات ذات أولوية لإعادة حقن المعلومات الهامة عند تقلص السياق.

تثبيت الأداة بسيط ويدعم منصات متعددة مثل Claude code وGemini CLI وVS Code Copilot.

تقليل الضجيج في نافذة السياق يمنح النموذج مساحة أكبر للتفكير المنطقي الفعلي وتحسين جودة البرمجة.

أظهرت التجارب العملية توفيراً كبيراً في التوكنز، حيث يمكن لتوفير بسيط أن يتحول إلى 100,000 توكن في المشاريع الضخمة.

Timeline

مقدمة عن مشكلة تضخم السياق وتكلفته

يبدأ المتحدث بتسليط الضوء على التحدي الرئيسي الذي يواجه مبرمجي Claude Code وهو تضخم السياق السريع والمكلف. يوضح أن كل استدعاء لأدوات MCP يفرغ مخرجاته بالكامل في نافذة السياق، مما يؤدي لنسيان الملفات والمهام بعد 30 دقيقة فقط من العمل النشط. يشرح الفيديو أن هذه المشكلة لا تسبب خسارة مالية فحسب، بل تؤثر على جودة قرارات الذكاء الاصطناعي. يقدم المتحدث حل "context-mode" كخادم MCP مصمم خصيصاً لمعالجة هذه الثغرة الجوهرية. يمهد هذا القسم الطريق لفهم العرض التجريبي والتقنيات التي سيتم شرحها لاحقاً.

آلية عمل context-mode وتقنيات ضغط البيانات

يستعرض هذا القسم الأرقام الصادمة وراء استهلاك البيانات، مثل استهلاك لقطات Playwright وطلبات GitHub لمساحات ضخمة قبل كتابة كود واحد. يوضح المتحدث أن context-mode يعمل كبيئة معزولة (sandbox) تتوسط بين الذكاء الاصطناعي ونظام التشغيل. يتم استخدام قاعدة بيانات SQLite مع تقنية البحث الكامل في النص FTS5 لفهرسة المخرجات بدلاً من عرضها بالكامل. يذكر المتحدث إحصائية مذهلة حيث تم تقليص حجم ملف من 56 كيلوبايت إلى 299 بايت فقط، أي بنسبة تقليل تبلغ 99%. تعتبر هذه التقنية هي العمود الفقري لتوفير التوكنز والحفاظ على كفاءة الجلسة البرمجية.

استمرارية الجلسة ونقاط الحفظ الذكية

يركز هذا الجزء على الفائدة الحقيقية لـ context-mode وهي الحفاظ على استمرارية الجلسة ومنع فقدان أثر الكود المكتوب سابقاً. يستخدم النظام خطافات (hooks) لمراقبة تعديلات الملفات وعمليات git، مما يسمح ببناء لقطات أولوية بحجم أقل من 2 كيلوبايت. تعمل هذه اللقطات كـ "نقطة حفظ" تمنع الذكاء الاصطناعي من تكرار أخطاء الماضي حتى بعد إعادة ضبط السياق. يشرح المتحدث أيضاً سهولة التثبيت عبر أوامر npm البسيطة وتوافق الأداة مع Claude وGemini وCopilot. الهدف النهائي هنا هو تمديد وقت الجلسة الفعال من 30 دقيقة إلى ما يقارب 3 ساعات متواصلة.

عرض تجريبي: فهرسة سجلات الوصول وتوفير التكاليف

يقدم المتحدث عرضاً حياً باستخدام ملف سجل وصول (access.log) يحتوي على 5000 سطر من طلبات API الوهمية. بدلاً من إرسال الملف كاملاً لـ Claude، يقوم context-mode بفهرسته داخلياً، مما يسمح للنموذج بالاستعلام عن أنماط الأخطاء بذكاء. يظهر الاختبار توفير حوالي 1200 توكن في جلسة بسيطة، وهو ما يمثل تقليلاً بنسبة 25% من حجم البيانات المرسلة. يوضح المتحدث أن Claude يتلقى فقط تأكيداً بالفهرسة بدلاً من البيانات الخام، مما يحميه من التشتت. يؤكد هذا العرض العملي قدرة الأداة على التعامل مع الملفات الضخمة بكفاءة عالية جداً.

الخلاصة: الحفاظ على ذكاء النموذج والمساحة المنطقية

في الختام، يشدد المتحدث على أن الهدف ليس مجرد توفير المال، بل الحفاظ على "ذكاء النموذج" عبر إزالة الضجيج من نافذة السياق. يوضح أن تقليل التوكنز غير الضرورية يترك مساحة أكبر لـ Claude للقيام بالتفكير المنطقي الفعلي كمهندس برمجيات محترف. يحذر من أن المشاريع البحثية الضخمة قد تستهلك 100,000 توكن بسهولة بدون هذه الأداة، مما يؤدي لتعطيل الوكلاء البرمجيين. يشجع المطورين على تجربة الأداة في مشاريعهم المعقدة لتمديد عمر الجلسات وتحسين النتائج. ينتهي الفيديو بدعوة المشتركين للتفاعل والاشتراك في قناة Better Stack لمزيد من التحليلات التقنية.

Community Posts

No posts yet. Be the first to write about this video!

Write about this video