Log in to leave a comment
No posts yet
لقد أحدث ظهور نماذج اللغات الكبيرة (LLMs) القوية تحولاً جذرياً في نموذج البرمجة. الآن، لم يعد المطورون يطلبون مجرد سطر برمجيا، بل يطلبون تصميم بنية التطبيق بالكامل. ومع ذلك، عندما يكبر حجم المشروع، يبدأ الذاء الاصطناعي في تقديم إجابات خاطئة أو نسيان القواعد التي تمت مناقشتها للتو، وكأن الأمر متفق عليه.
هذا ليس قصوراً في أداء النموذج، بل هو نتيجة لـ البرمجة بالحدس (Vibe Coding) المفتقرة للاستراتيجية. يعتمد نجاح البرمجة بالذكاء الاصطناعي على مدى ذكائك في إدارة نافذة السياق (Context Window)، وهي مورد محدود، أكثر من اعتماده على ذكاء النموذج نفسه. من وجهة نظر مهندس حلول ذكاء اصطناعي خبير، أقدم لك 3 مبادئ أساسية لمنع الهلوسة وتعظيم كفاءة العمل.
يعتمد الكثيرون على أدوات مثل Beemad أو Spec-Kit. هي أدوات رائعة بلا شك، لكنها قد تتحول أحياناً إلى سم. هذه الأطر تفرض كتابة وثائق مواصفات (PRD) ضخمة لكل مهمة، مما يجعل حتى إصلاح الأخطاء البسيطة يمر بإجراءات بيروقراطية تكسر إيقاع التطوير.
والمشكلة الأكبر هي هدر الرموز (Tokens). في المراحل الأولى من المشروع، يتم ضخ ملايين الرموز، ولكن في مرحلة التنفيذ الحرجة، غالباً ما تحدث ظاهرة فقدان السياق حيث ينسى النموذج القرارات السابقة. الكفاءة الحقيقية لا تأتي من اتباع قوالب جامدة، بل من هندسة السياق المناسبة للموقف.
ليست نافذة السياق في نماذج اللغات الكبيرة مجرد مستودع تخزين، بل هي الذاكرة العاملة (Working Memory) التي يستخدمها النموذج في الوقت الفعلي. كلما امتلأت هذه المساحة، انخفضت دقة الاستنتاج بشكل حاد.
آلية الانتباه الذاتي (Self-attention) في بنية Transformer تتشظى عندما يتجاوز السياق 70-80% من السعة الإجمالية. تُعرف هذه الظاهرة بـ الضياع في المنتصف. يبدأ النموذج في تذكر "System Prompt" في البداية وأحدث التعليمات في النهاية، بينما يتجاهل المنطق التجاري المعقد المكتوب في المنتصف.
3 علامات تدل على أن الذكاء الاصطناعي وصل إلى حده الأقصى:
الإجراء المضاد: التلخيص اليدوي (Compaction) وإعادة اللف (Rewind)
عندما يقترب السياق من 70%، قم فوراً بتلخيص سجل المحادثة حتى الآن. يجب إجراء عملية التلخيص (Compaction) للإبقاء فقط على القرارات الجوهرية وتصميم البنية وحذف الباقي. وإذا اتجه التنفيذ في مسار خاطئ، لا تكتفِ بالتراجع البسيط، بل استخدم ميزة إعادة اللف (Rewind) لمسح المحاولات الفاشلة تماماً من ذاكرة النموذج لمنع التلوث.
أقوى استراتيجية لمنع التحميل الزائد للمعلومات هي الإفصاح التدريجي (Progressive Disclosure). وهي طريقة تعتمد على عدم حقن كل الكود دفعة واحدة، بل تقديم الحد الأدنى من المعلومات اللازمة للمهمة الحالية وبشكل مرحلي.
كيفية استخدام الذاكرة الخارجية: agent.md**
لكي يحافظ العميل (Agent) على الاستمرارية عبر الجلسات، قم بتسجيل دستور المشروع وسجل حالة العمل** في ملف مثل agent.md. يصبح هذا بمثابة ذاكرة طويلة المدى يمكن للنموذج الرجوع إليها لمعرفة قراراته السابقة.
تختلف كمية استهلاك الرموز والدقة بشكل كبير بناءً على تنسيق الملف المستخدم. يستخدم العديد من المطورين JSON بشكل تلقائي، لكنه خيار غير فعال في إدارة سياق نماذج اللغات الكبيرة.
قواعد JSON الصارمة (" ", { }, :, ,) تُجزأ إلى رموز منفردة مما يرفع التكلفة. في المقابل، يعبر YAML عن التسلسل الهرمي من خلال المسافات البادئة (Indentation)، مما يجعل التكلفة الإضافية شبه معدومة.
| نوع البيانات | عدد رموز JSON | عدد رموز YAML | نسبة التوفير |
|---|---|---|---|
| قائمة بسيطة / تنسيق جدول | 100 tokens | 50 tokens | 50% |
| هيكل كائنات متداخل | 106 tokens | 46 tokens | 56.6% |
<instructions> و <code_snippet> يعظم من قدرة النموذج على تنفيذ التعليمات.عملية مرحلية يمكنك تطبيقها من الغد.
agent.md وعمل Commit بعد إنهاء المهمة./compact قبل الوصول إلى 70%.هل يتجاهل الذكاء الاصطناعي التعليمات باستمرار؟
تحقق مما إذا كان السياق فوق 70% ثم نفذ التلخيص. يجب نقل القواعد الأساسية إلى أعلى الملف.
هل يضيع النموذج بسبب كثرة ملفات المشروع؟
اعتمد الإفصاح التدريجي. يجب حقن هيكل الدليل والملخص (YAML) أولاً بدلاً من الكود الكامل.
هل تكلفة الرموز مرتفعة جداً والاستجابة بطيئة؟
قم بتغيير تنسيق البيانات من JSON إلى YAML، واحذف سجل المحادثات غير الضروري.
وكلاء الذكاء الاصطناعي هم بمثابة زملاء جونيور يشاركونك بناء البرمجيات. وكما أن الخبير المتمرس لا يصب كل المعلومات دفعة واحدة على المتدرب، يحتاج الذكاء الاصطناعي أيضاً إلى إدارة استراتيجية للسياق. كن مصمماً للسياق يحترم عتبة الـ 70% ويصمم هياكل بيانات فعالة، لتختبر بعداً جديداً في البرمجة بالذكاء الاصطناعي.