Log in to leave a comment
No posts yet
AI एजेंट के साथ कोडिंग ऑटोमेशन लागू करते समय, एक ऐसी दीवार आती है जिसका सामना आपको करना ही पड़ता है। शुरुआत में जो एजेंट किसी जीनियस की तरह कोड लिख रहा होता है, वह समय बीतने के साथ-साथ निर्देशों को भूलने लगता है या ऐसे API बनाने लगता है जो अस्तित्व में ही नहीं हैं—यानी वह 'मूर्ख' होने लगता है।
इसका कारण स्पष्ट है: LLM की भौतिक सीमा, जिसे कॉन्टेक्स्ट विंडो मैनेजमेंट की विफलता कहते हैं। जैसे-जैसे बातचीत लंबी होती है, मुख्य जानकारी शोर (noise) में दब जाती है और मॉडल की तर्क क्षमता (reasoning) गिर जाती है। इसी समस्या को हल करने के लिए Ralph Loop (राल्फ लूप) तैयार किया गया है। यहाँ एक ऐसी ऑटोमेशन रणनीति दी गई है जो आपके एजेंट को हमेशा उसके सर्वश्रेष्ठ 'स्मार्ट ज़ोन' में बनाए रखती है।
ज्यादातर एजेंटों का प्रदर्शन बातचीत लंबी होने पर तेजी से गिरता है। ट्रांसफॉर्मर आर्किटेक्चर की प्रकृति के कारण, जैसे-जैसे लॉग और निष्पादन परिणाम (execution results) जमा होते हैं, सिग्नल-टू-नॉइज़ अनुपात कम होता जाता है।
एंटरप्राइज़ मॉडल द्वारा प्रदान की जाने वाली सारांश (summary) सुविधा कभी-कभी फायदे के बजाय नुकसान पहुँचाती है। सारांश बनाने की प्रक्रिया में सटीक तार्किक संरचनाएँ छूट जाती हैं, जिससे डेटा की हानि होती है। इससे भी अधिक गंभीर है ट्रेजेक्टरी एडिक्शन। यदि कॉन्टेक्स्ट में एक बार कोई त्रुटि पैटर्न (error pattern) आ जाए, तो मॉडल उसे सही मान लेता है और उसे बार-बार दोहराने लगता है।
AI मॉडल की तर्क क्षमता कॉन्टेक्स्ट के उपयोग के आधार पर गैर-रेखीय (non-linear) रूप से बदलती है। कुशल डिज़ाइन के लिए इसे डेटा के माध्यम से समझना ज़रूरी है।
Ralph Loop का मूल सिद्धांत सरल है: मॉडल के 60% से अधिक 'डम्ब ज़ोन' में प्रवेश करने से पहले सेशन को जबरन नष्ट करना और उसे रीसेट करना।
Ralph Loop बातचीत के इतिहास (chat history) पर भरोसा नहीं करता है। यह हर कार्य के लिए कॉन्टेक्स्ट को पूरी तरह से खाली करने वाला स्टेटलेस (stateless) तरीका अपनाता है। एजेंट की यादें कॉन्टेक्स्ट विंडो के बजाय फ़ाइल सिस्टम में सहेजी जाती हैं।
एजेंट हर लूप में PRD.md और progress.txt पढ़कर अपनी स्थिति का पता लगाता है। उसके बाद वह plan.md से केवल एक ही कार्य करता है। कार्य पूरा होने पर, वह परीक्षण (test) के माध्यम से परिणाम की पुष्टि करता है, Git पर कमिट (commit) करता है और सेशन समाप्त कर देता है। अगला लूप फिर से 0% कॉन्टेक्स्ट उपयोग के साथ शुरू होता है।
Claude Code जैसे CLI एजेंटों का उपयोग करके, आप एक साधारण स्क्रिप्ट के साथ लूप को स्वचालित कर सकते हैं।
`bash
#!/bin/bash
set -e
for i in {1..20}; do
echo "लूप पुनरावृत्ति $i शुरू"
result=$(claude -p
"@PRD.md @progress.txt @agent.md
1. वर्तमान प्रगति की जाँच करें और अगला कार्य करें।
2. टेस्ट सफल होने पर कमिट करें और progress.txt को अपडेट करें।
3. पूरा होने पर COMPLETE शब्द आउटपुट करें।")
if [[ "$result" == "COMPLETE" ]]; then
break
fi
done
`
चूँकि यह तरीका बिना मैन्युअल मंज़ूरी के चलता है, इसलिए सुरक्षा के लिए इसे Docker जैसे अलग किए गए सैंडबॉक्स वातावरण में ही चलाना चाहिए।
कॉन्टेक्स्ट बचाने के लिए डेटा का फॉर्मेट भी महत्वपूर्ण है। हज़ारों लाइनों के लॉग को सीधे डालना आत्मघाती हो सकता है।
Ralph Loop की शुरुआत AI की सीमाओं को स्वीकार करने से होती है। भले ही मॉडल की कॉन्टेक्स्ट विंडो टेराबाइट तक बढ़ जाए, यदि सूचना का घनत्व कम है, तो तर्क की स्पष्टता निश्चित रूप से धुंधली हो जाएगी।
इंजीनियर की भूमिका अब सीधे कोड टाइप करने से बदलकर एक आर्किटेक्ट के रूप में विकसित हो रही है, जो ऐसा वातावरण डिज़ाइन करता है जहाँ एजेंट अपने 'स्मार्ट ज़ोन' से बाहर न निकले। कार्यों को छोटा करें, वातावरण को सुरक्षित करें और स्पष्ट समाप्ति संकेत डिज़ाइन करें। AI एजेंट की स्वायत्तता को नियंत्रित उच्च प्रदर्शन में बदलने का यही एकमात्र रास्ता है।