00:00:00RunPod ने अभी RunPod Flash नाम का एक बहुत ही शानदार नया सर्विस टूल पेश किया है।
00:00:04इसे सर्वरलेस GPU फंक्शन्स को तैनात करने के तरीके को सरल बनाने के लिए डिज़ाइन किया गया है।
00:00:09पारंपरिक रूप से, एक लोकल पायथन स्क्रिप्ट को क्लाउड GPU पर ले जाने के लिए डॉकर इमेज बनाने,
00:00:14एनवायरनमेंट सेटअप करने, उसे रजिस्ट्री में पुश करने और एक अलग डिप्लॉयमेंट को मैनेज करने की ज़रूरत होती थी।
00:00:19लेकिन Flash स्टैंडर्ड पायथन फंक्शन्स को क्लाउड एंडपॉइंट्स में बदलने की सुविधा देकर
00:00:24उस बोझ को हटा देता है, जिन्हें आप ज़रूरत पड़ने पर कभी भी चला सकते हैं।
00:00:29आज के वीडियो में, हम RunPod Flash पर करीब से नज़र डालेंगे, देखेंगे कि यह कैसे काम करता है,
00:00:33और खुद एक ऑन-डिमांड AI वीडियो जनरेटर बनाकर इसे आज़माएंगे।
00:00:38इसमें बहुत मज़ा आने वाला है, तो चलिए शुरू करते हैं।
00:00:41RunPod Flash मुख्य रूप से इंफ्रास्ट्रक्चर लेयर को पूरी तरह से हटाकर काम करता है।
00:00:50आपके डिप्लॉयमेंट मैनेज करने के बजाय, Flash SDK आपके कोड और डिपेंडेंसीज़ को पैक करता है,
00:00:55और फिर उन्हें एक मैनेज्ड वर्कर पर भेजता है, जो केवल आपके फंक्शन के चलने के दौरान ही मौजूद रहता है।
00:01:01इसकी सबसे अच्छी विशेषताओं में से एक ऑटोमैटिक एनवायरनमेंट सिंक है।
00:01:04मैं इसे मैक पर कोड कर रहा हूँ, लेकिन Flash सभी क्रॉस-प्लेटफ़ॉर्म मुश्किलों को खुद संभाल लेता है,
00:01:09यह सुनिश्चित करते हुए कि जैसे ही मैं रन दबाता हूँ, हर लाइब्रेरी लिनक्स GPU वर्कर्स के लिए सही ढंग से कंपाइल हो जाए।
00:01:15इसके बाद यह चुपचाप प्रत्येक फंक्शन के लिए एक सर्वरलेस एंडपॉइंट तैयार कर देता है,
00:01:20जिसका अर्थ है कि आपको बिना किसी कॉन्फ़िगरेशन फ़ाइल को छुए हर समर्पित कार्य के लिए स्वतंत्र स्केलिंग और हार्डवेयर मिलते हैं।
00:01:26लेकिन असली जादू तब होता है जब आप इन फंक्शन्स को बैकएंड सर्विस में इंटीग्रेट करते हैं।
00:01:31चूंकि प्रत्येक डेकोरेटेड फंक्शन मूल रूप से एक लाइव API एंडपॉइंट है, इसलिए आप उन्हें
00:01:36किसी वेब ऐप, डिस्कॉर्ड बॉट या मोबाइल बैकएंड से बिना किसी अतिरिक्त सेटअप के ट्रिगर कर सकते हैं।
00:01:42और यह आर्किटेक्चर स्केलिंग के लिए बेहतरीन है, क्योंकि आप एक साथ दर्जनों पैरेलल जॉब्स चला सकते हैं।
00:01:48उदाहरण के लिए, यदि 10 यूज़र्स AI वीडियो जेनरेट होने का इंतज़ार कर रहे हैं, तो Flash बस 10
00:01:54स्वतंत्र वर्कर्स शुरू कर देता है, और काम पूरा होते ही सब कुछ बंद कर देता है।
00:01:59इसलिए आप पूरी कतार खत्म करने के लिए एक ही GPU के इंतज़ार में नहीं फंसे रहते। इंफ्रास्ट्रक्चर बस
00:02:05आपके ट्रैफिक के अनुसार घटता या बढ़ता रहता है। अब आप सोच सकते हैं कि इस तरह के मल्टी-स्टेज पाइपलाइन के लिए,
00:02:10जहाँ अलग-अलग हार्डवेयर और डेटा मिल रहे हों, एक जटिल ऑर्केस्ट्रेशन लेयर की ज़रूरत होगी। लेकिन Flash में,
00:02:16यह सिर्फ एक वेरिएबल को एक फंक्शन से दूसरे में भेजने जितना आसान है। यह कितना शक्तिशाली है,
00:02:21यह दिखाने के लिए हम एक मल्टी-स्टेज पाइपलाइन बनाएंगे। सबसे पहले, हम प्री-प्रोसेसिंग के लिए
00:02:27एक साधारण सस्ते CPU वर्कर का उपयोग करेंगे। इस मामले में, हम इनपुट इमेज को अनुकूल रूप से रीसाइज़ करेंगे।
00:02:33और फिर हम उस डेटा यानी रीसाइज़ की गई इमेज को, Cog Video X मॉडल का उपयोग करके
00:02:41हाई फिडेलिटी वीडियो बनाने के लिए एक हाई-एंड RTX 5090 GPU को भेजेंगे। यह सुनिश्चित करता है कि हम
00:02:47इमेज रीसाइज़िंग जैसे सरल कार्यों के लिए महंगे GPU पर पैसे बर्बाद नहीं कर रहे हैं। हम इसे केवल
00:02:52उन फंक्शन्स के लिए कॉल करते हैं जहाँ भारी प्रोसेसिंग की ज़रूरत होती है। तो शुरू करने के लिए, हम UV का उपयोग करके
00:02:59एक वर्चुअल एनवायरनमेंट बना सकते हैं, फिर RunPod Flash जोड़ सकते हैं, और फिर वर्चुअल एनवायरनमेंट को रिलोड कर सकते हैं
00:03:03ताकि एनवायरनमेंट पाथ वेरिएबल्स अपडेट हो जाएं। उसके बाद, आपको 'flash login' चलाकर अपने RunPod अकाउंट में लॉग इन करना होगा।
00:03:09और वहां से, हम अपने वास्तविक एंडपॉइंट्स सेट करने की ओर बढ़ सकते हैं। यहाँ मेरे पास एक साधारण पायथन
00:03:14फ़ाइल है। जैसा कि आप देख सकते हैं, यह काफी छोटी है। और इसमें दो Flash एंडपॉइंट्स हैं।
00:03:19एक इनपुट इमेज के लिए एडाप्टिव रीसाइज़िंग कर रहा है, जैसा कि मैंने पहले बताया था।
00:03:24जैसा कि आप यहाँ देख सकते हैं, यह सिर्फ एक साधारण CPU का उपयोग कर रहा है और एक इमेज रीसाइज़र को कॉल कर रहा है।
00:03:31इतने सरल ऑपरेशन के लिए हमें कुछ भी खास नहीं चाहिए। लेकिन दूसरे एंडपॉइंट पर, हमारे पास
00:03:37कस्टम वीडियो जनरेटर पाइपलाइन है, जहाँ हम RTX 5090 के साथ एक समर्पित GPU इंस्टेंस चला रहे हैं।
00:03:43और हमारी रीसाइज़ की गई इनपुट इमेज के आधार पर वीडियो बनाने के लिए 5 बिलियन पैरामीटर वाले Cog Video X का उपयोग कर रहे हैं।
00:03:51अब हम देख सकते हैं कि यह कैसे काम करता है। हम बस इस कुत्ते की एक साधारण इमेज जोड़ सकते हैं,
00:03:57और फिर एक प्रॉम्प्ट दे सकते हैं जिसका उपयोग हम वीडियो जनरेशन के लिए करेंगे।
00:04:02अब अगर हम RunPod पर वापस जाएं, तो हम देख सकते हैं कि वहां एक एक्टिव कतार के साथ दो समर्पित वर्कर्स हैं
00:04:07जो हमारी इमेज और वीडियो को प्रोसेस कर रहे हैं। मुझे यह भी बताना होगा कि जब हम इन एंडपॉइंट्स को
00:04:12पहली बार चलाते हैं, तो आप देख सकते हैं कि पाइपलाइन में काफी समय लगता है। ऐसा इसलिए है क्योंकि
00:04:17RunPod अनिवार्य रूप से सभी डिपेंडेंसीज़ इंस्टॉल कर रहा है और मॉडल वेट्स डाउनलोड कर रहा है, लेकिन
00:04:22इसके बाद का हर रन काफी तेज़ होगा। तो अब पाइपलाइन के खत्म होने तक कुछ सेकंड और इंतज़ार करते हैं।
00:04:28और देखिए, अब हमें अपना शानदार आउटपुट वीडियो मिल गया है।
00:04:33RunPod एनालिटिक्स टैब पर, हम यह भी ट्रैक कर सकते हैं कि हमारे कितने डिप्लॉयमेंट हुए हैं, कितने सफल रहे
00:04:39और कितने फेल हुए हैं। साथ ही, हम अपनी बिलिंग पर भी नज़र रख सकते हैं। तो यह था RunPod Flash संक्षेप में।
00:04:43मुझे सच में लगता है कि यह एक बहुत ही शानदार फीचर है अगर आप कोई ऐसी बैकएंड सर्विस बना रहे हैं
00:04:49जिसमें इमेज जनरेशन, वीडियो जनरेशन या भारी डॉक्यूमेंट एनालिसिस जैसे ऑन-डिमांड AI प्रोसेसिंग की ज़रूरत हो।
00:04:56लेकिन आप RunPod Flash के बारे में क्या सोचते हैं? क्या आपको लगता है कि यह फीचर उपयोगी है?
00:05:01क्या आपने इसे आज़माया है? क्या आप इसका उपयोग करेंगे? हमें नीचे कमेंट्स में ज़रूर बताएं।
00:05:06और दोस्तों, अगर आपको इस तरह के टेक्निकल ब्रेकडाउन पसंद हैं, तो वीडियो के नीचे
00:05:10लाइक बटन दबाकर मुझे ज़रूर बताएं। और हमारे चैनल को सब्सक्राइब करना न भूलें।
00:05:15मैं Betterstack से Andris हूँ और मैं आपसे अगले वीडियो में मिलूँगा।