19:20Chase AI
Log in to leave a comment
No posts yet
सैकड़ों PDF और जटिल तालिकाओं का स्थानीय स्तर पर विश्लेषण करना एक कठिन कार्य है। केवल टूल इंस्टॉल करने से समस्या हल नहीं होती है। वास्तविक कार्य स्वचालन तब शुरू होता है जब आप अव्यवस्थित डेटा को उच्च-शुद्धता वाले संदर्भ (context) में परिष्कृत करते हैं जिसे AI तुरंत समझ सके।
Claude Code का उपयोग करते समय, ऐसी स्थितियाँ उत्पन्न हो सकती हैं जहाँ यह प्रोजेक्ट A के प्रश्न के लिए प्रोजेक्ट B के आँकड़ों के साथ उत्तर देता है। यह तब होता है जब वेक्टर डेटाबेस या ज्ञान ग्राफ़ (knowledge graphs) आपस में मिल जाते हैं। इसे रोकने के लिए, आपको प्रोजेक्ट रूट के भीतर एक मानकीकृत फ़ोल्डर संरचना डिज़ाइन करनी चाहिए और पथों (paths) को फिक्स करना चाहिए।
सबसे स्वच्छ संरचना मूल फ़ाइलों को docs/raw/ में, MinerU रूपांतरण परिणामों को docs/output/ में, और RAG-Anything के ज्ञान ग्राफ़ इंडेक्स को docs/context_db/ में रखना है। इस तरह से अलग करने पर, kv_store_doc_status.json जैसी स्थिति फ़ाइलें आपस में नहीं उलझेंगी।
Claude Code को केवल इस पथ को देखने के लिए कॉन्फ़िगर करने हेतु .claudecode/config.json सेटिंग्स की आवश्यकता होती है।
.claudecode निर्देशिका बनाएँ।config.json के भीतर mcpServers अनुभाग में rag-anything जोड़ें।env सेटिंग्स में RAG_STORAGE_DIR मान को ./docs/context_db के रूप में निर्दिष्ट करें।एक बार यह सेटअप पूरा हो जाने पर, AI केवल निर्दिष्ट पथ के डेटा का उपयोग करेगा। इससे उत्तरों की सटीकता बढ़ जाती है और अन्य क्लाइंट डेटा के साथ मिश्रित होने का जोखिम समाप्त हो जाता है।
स्कैन किए गए PDF या मल्टी-कॉलम लेआउट OCR पहचान दर को कम कर देते हैं। यदि कोई तालिका पृष्ठ के किनारों के बहुत करीब है, तो YOLO लेआउट डिटेक्शन मॉडल इसे बॉर्डर समझकर गलती से पूरी तरह हटा सकता है। समाधान सरल है: छवि के चारों ओर लगभग 40 पिक्सेल का सफेद मार्जिन जोड़ें।
वास्तव में, किनारों से चिपकी हुई तालिकाओं की पहचान दर बिना मार्जिन के 3% के आसपास रहती है, लेकिन 40px मार्जिन जोड़ने पर यह 98% तक बढ़ जाती है। धुंधले स्कैन के लिए, कंट्रास्ट को समायोजित करने हेतु OpenCV का उपयोग करें। टेक्स्ट की सीमाओं को स्पष्ट करने के लिए निम्नलिखित सूत्र लागू करके (कंट्रास्ट) मान को 1.0 और 3.0 के बीच समायोजित करें:
g(i,j) = \alpha \cdot f(i,j) + etaपायथन स्क्रिप्ट के माध्यम से CLAHE तकनीक लागू करने और फिर इसे MinerU में फीड करने से तालिका डेटा निष्कर्षण की मात्रा दर्जनों गुना बढ़ जाती है। AI को ऐसा दस्तावेज़ पढ़ने के लिए मजबूर करना जो मानवीय आँखों को भी धुंधला लगे, समय की बर्बादी है।
स्थानीय स्तर पर बड़ी संख्या में दस्तावेजों को संसाधित करते समय सबसे बड़ी बाधा GPU मेमोरी है। हालाँकि MinerU संस्करण 2.5 तेज़ है, लेकिन 24GB से कम VRAM वाले वातावरण में बड़े PDF को प्रोसेस करते समय सिस्टम अक्सर फ्रीज हो जाता है। स्थिरता के लिए, num_batch पैरामीटर को डिफॉल्ट 512 से घटाकर 32 या 64 कर देना चाहिए।
num_batch को 32 और gpu_memory_utilization को 0.7 पर संशोधित करें।/etc/sysctl.conf में मेमोरी ओवरकमिट (memory overcommit) को सीमित करें।बैच आकार कम करने से प्रसंस्करण गति थोड़ी धीमी हो सकती है, लेकिन यह बीच में ही प्रक्रिया के जबरन बंद होने (force closing) को रोकेगा। गति से अधिक स्थिर पूर्णता महत्वपूर्ण है।
एक बार डेटा इंडेक्सिंग समाप्त हो जाने के बाद, परिणाम उत्पन्न करने का समय आ गया है। चूँकि RAG-Anything तालिकाओं और सूत्रों के बीच के संबंधों को सुव्यवस्थित करता है, आप Claude Code में जटिल प्रश्न पूछ सकते हैं। अब "तीसरी तिमाही की बिक्री तालिका और वर्तमान तकनीकी विशिष्टताओं की तुलना करें" जैसे निर्देश संभव हैं।
साप्ताहिक रिपोर्ट लिखने में लगने वाले समय को कम करने के लिए स्पष्ट टेम्प्लेट का उपयोग करें:
<context> टैग में रखें और आउटपुट स्वरूप को <format> टैग के साथ अलग करें।