توقف عن بناء صور Docker للذكاء الاصطناعي. استخدم هذه الأداة بدلاً من ذلك (RunPod Flash)

BBetter Stack
컴퓨터/소프트웨어창업/스타트업AI/미래기술

Transcript

00:00:00أطلقت RunPod أداة خدمة جديدة ورائعة تسمى RunPod Flash.
00:00:04وهي مصممة لتبسيط كيفية نشر وظائف GPU بدون خوادم (Serverless).
00:00:09تقليدياً، كان نقل سكربت Python محلي إلى GPU سحابي يتطلب بناء صورة Docker،
00:00:14وإعداد البيئة، ورفعها إلى السجل (Registry)، وإدارة عملية نشر منفصلة.
00:00:19لكن Flash يزيل هذا العبء بالسماح لك بتحويل وظائف Python القياسية
00:00:24إلى نقاط نهاية سحابية (Cloud Endpoints) باستخدام مزخرفات بسيطة يمكنك تنفيذها عند الطلب.
00:00:29في فيديو اليوم، سنلقي نظرة فاحصة على RunPod Flash، ونرى كيف يعمل،
00:00:33ونجربه بأنفسنا من خلال بناء مولد فيديو بالذكاء الاصطناعي عند الطلب.
00:00:38سيكون الأمر ممتعاً للغاية، فلنبدأ مباشرة.
00:00:41يعمل RunPod Flash بشكل أساسي من خلال تجريد طبقة البنية التحتية بالكامل.
00:00:50بدلاً من إدارتك لعملية النشر، تقوم حزمة Flash SDK بتغليف الكود والمكتبات التابعة لك،
00:00:55ثم دفعها إلى عامل مُدار (Worker)، والذي يتواجد فقط أثناء تشغيل وظيفتك.
00:01:01واحدة من أفضل الميزات هي المزامنة التلقائية للبيئة.
00:01:04أنا أقوم ببرمجة هذا على جهاز Mac، لكن Flash يتولى كل المهام الشاقة المتوافقة مع المنصات المختلفة،
00:01:09مما يضمن تجميع كل مكتبة بشكل صحيح لعمال Linux GPU بمجرد الضغط على تشغيل.
00:01:15ثم يقوم بصمت بتجهيز نقطة نهاية بدون خادم لكل وظيفة،
00:01:20مما يعني حصولك على توسع وأجهزة مستقلة لكل مهمة مخصصة دون لمس
00:01:26ملف إعدادات واحد. لكن السحر الحقيقي يحدث عند دمج هذه الوظائف في خدمة خلفية (Backend).
00:01:31بما أن كل وظيفة مُزخرفة هي بمثابة نقطة نهاية API مباشرة، يمكنك تشغيلها
00:01:36من تطبيق ويب، أو بوت Discord، أو خلفية تطبيق جوال دون أي إعدادات إضافية.
00:01:42والبنية التحتية مثالية للتوسع، لأنه يمكنك إطلاق العشرات من المهام المتوازية في وقت واحد.
00:01:48على سبيل المثال، إذا كان لديك 10 مستخدمين ينتظرون توليد فيديوهات، سيقوم Flash ببساطة بتشغيل 10
00:01:54عمال مستقلين، ثم يغلق كل شيء في اللحظة التي ينتهون فيها. وبذلك لن تظل
00:01:59عالقاً في انتظار GPU واحد لإنهاء قائمة الانتظار بأكملها. البنية التحتية ببساطة تنمو أو تتقلص
00:02:05حسب حركة المرور لديك. الآن قد تعتقد أن خط أنابيب متعدد المراحل مثل هذا،
00:02:10يمزج بين أجهزة وبيانات مختلفة، سيتطلب طبقة تنسيق معقدة. لكن في Flash،
00:02:16الأمر مجرد تمرير متغير من وظيفة إلى أخرى. ولإظهار مدى قوته،
00:02:21سنقوم ببناء خط أنابيب متعدد المراحل. أولاً، سنستخدم عامل CPU بسيط ورخيص
00:02:27للتعامل مع المعالجة المسبقة. في هذه الحالة، سنقوم بتغيير حجم الصور المدخلة بشكل تكيفي.
00:02:33ثم سنمرر تلك البيانات، أي الصورة المعدلة، إلى GPU متطور من نوع RTX 5090 لإنشاء فيديو
00:02:41عالي الدقة باستخدام نموذج Cog Video X. هذا يضمن أننا لا نهدر المال على GPU فائق
00:02:47لمهام بسيطة مثل تغيير حجم الصور. ونقوم باستدعائه فقط للوظائف التي تتطلب جهداً كبيراً.
00:02:52للبدء، يمكننا إنشاء بيئة افتراضية باستخدام UV، ثم إضافة RunPod Flash،
00:02:59ثم إعادة تحميل البيئة الافتراضية للتأكد من أنها تعمل، وللتأكد من إعادة تحميل
00:03:03متغيرات مسار البيئة. وبعد ذلك عليك تسجيل الدخول إلى حساب RunPod الخاص بك عبر تشغيل Flash login.
00:03:09ومن هناك، يمكننا الانتقال إلى إعداد نقاط النهاية الفعلية لدينا. هنا لدي ملف Python بسيط.
00:03:14وكما ترون، حجمه صغير جداً. ويحتوي على نقطتي نهاية Flash. واحدة تقوم
00:03:19بتغيير الحجم التكيفي للصور المدخلة، كما ذكرت سابقاً. وكما ترون هنا،
00:03:24فهي تستخدم مجرد CPU بسيط وتستدعي أداة تغيير حجم الصور. لا شيء معقد.
00:03:31ولا نحتاج لأي شيء معقد لعملية معالجة صور بسيطة كهذه. لكن في نقطة النهاية الثانية، لدينا خط أنابيب
00:03:37مخصص لتوليد الفيديو، حيث نقوم بتشغيل مثيل GPU مخصص مع RTX 5090. ونستخدم
00:03:43نموذج Cog Video X ذو الـ 5 مليارات معلمة لإنشاء فيديو بناءً على صورتنا المدخلة المعدلة.
00:03:51والآن يمكننا رؤية كيف يعمل عند تشغيله. يمكننا فقط إضافة صورة بسيطة لهذا الكلب،
00:03:57ثم تقديم وصف (Prompt) سنستخدمه لتوليد الفيديو. وإذا عدنا إلى
00:04:02RunPod الآن، يمكننا رؤية وجود عاملين مخصصين مع قائمة انتظار نشطة
00:04:07يقومان بمعالجة صورتنا والفيديو الخاص بنا. ويجب أن أذكر أنه عندما نقوم بتشغيل نقاط النهاية هذه
00:04:12للمرة الأولى، قد تجد أن خط الأنابيب يستغرق وقتاً أطول بكثير. وذلك لأن RunPod
00:04:17يقوم أساساً بتثبيت جميع التبعيات وتنزيل أوزان النموذج، ولكن كل
00:04:22عملية تشغيل متتالية بعد ذلك ستكون أسرع بكثير. الآن دعونا ننتظر بضع ثوانٍ إضافية
00:04:28حتى ينتهي خط الأنابيب. وها هو ذا، لقد حصلنا الآن على فيديو مخرجاتنا اللطيف.
00:04:33وفي تبويب تحليلات RunPod، يمكننا أيضاً تتبع عدد عمليات النشر التي قمنا بها، وكم منها كان
00:04:39ناجحاً وكم منها فشل. كما يمكننا متابعة فواتيرنا. إذاً هذا هو
00:04:43RunPod Flash باختصار. أعتقد بصدق أن هذه ميزة رائعة جداً إذا كنت
00:04:49تبني أي خدمة خلفية تتطلب مهام معالجة ثقيلة للذكاء الاصطناعي عند الطلب مثل توليد الصور،
00:04:56أو توليد الفيديو، أو التحليل المكثف للمستندات أو أي شيء من هذا القبيل. ولكن ما رأيكم
00:05:01في RunPod Flash؟ هل تعتقدون أن هذه الميزة مفيدة؟ هل جربتموها؟ هل ستستخدمونها؟
00:05:06أخبرونا في التعليقات أدناه. ويا رفاق، إذا كنت تحبون هذا النوع من التحليلات التقنية،
00:05:10يرجى إعلامي عبر الضغط على زر الإعجاب أسفل الفيديو. وأيضاً لا تنسوا
00:05:15الاشتراك في قناتنا. كان معكم أندريس من Betterstack وسأراكم في الفيديوهات القادمة.

Key Takeaway

تعد RunPod Flash ثورة في تطوير تطبيقات الذكاء الاصطناعي، حيث تلغي تعقيدات البنية التحتية وDocker، مما يسمح للمطورين بنشر وظائف GPU قوية وتقليل التكاليف من خلال التوسع التلقائي الذكي.

Highlights

تقديم أداة RunPod Flash التي تبسط نشر وظائف GPU بدون خوادم (Serverless) دون الحاجة لبناء صور Docker.

توفير ميزة المزامنة التلقائية للبيئة، مما يضمن توافق المكتبات البرمجية بين أجهزة التطوير وعمال Linux GPU.

القدرة على تحويل وظائف Python القياسية إلى نقاط نهاية API فورية باستخدام مزخرفات بسيطة.

دعم التوسع التلقائي والمرن عبر إطلاق مهام متوازية متعددة وإغلاقها فور انتهاء التنفيذ لتوفير التكاليف.

إمكانية بناء خطوط أنابيب معالجة متعددة المراحل تجمع بين استخدام الـ CPU للمهام البسيطة والـ GPU للمهام الثقيلة.

استعراض تجربة عملية لبناء مولد فيديو بالذكاء الاصطناعي باستخدام نموذج Cog Video X وبطاقة RTX 5090.

توفير لوحة تحليلات لمراقبة نجاح العمليات، وإدارة الفواتير، وتتبع الأداء بشكل دقيق.

Timeline

مقدمة إلى RunPod Flash ووداعاً لـ Docker

يبدأ الفيديو بتقديم أداة RunPod Flash الجديدة كبديل عصري للطرق التقليدية في نشر تطبيقات الذكاء الاصطناعي. يوضح المتحدث أن العملية السابقة كانت تتطلب بناء صور Docker وإعداد السجلات وإدارة النشر بشكل معقد ومرهق. تهدف هذه الأداة إلى إزالة هذا العبء تماماً عبر السماح للمطورين بتحويل سكربتات Python إلى نقاط نهاية سحابية مباشرة. يركز هذا القسم على أن الهدف الأساسي هو تبسيط حياة المطور وتقليل الوقت المستغرق في إعداد البيئات البرمجية. ستشمل الحلقة تجربة عملية لبناء مولد فيديو ذكي لإثبات كفاءة الأداة في بيئة عمل حقيقية.

آلية العمل والمزامنة التلقائية للبيئة

يشرح هذا الجزء كيف تقوم RunPod Flash بتجريد طبقة البنية التحتية بالكامل عن طريق حزمة SDK الخاصة بها. تقوم الحزمة بتغليف الكود والمكتبات ودفعها إلى عمال مؤقتين يتواجدون فقط أثناء تشغيل الوظيفة المطلوبة. تعد المزامنة التلقائية للبيئة من أهم الميزات، حيث تضمن توافق الكود المكتوب على أجهزة Mac مع عمال Linux GPU دون تدخل يدوي. يشير المتحدث إلى أن هذا يضمن تجميع المكتبات بشكل صحيح وتجهيز نقاط نهاية بدون خوادم لكل وظيفة على حدة. تكمن أهمية هذا القسم في توضيح كيف تضمن الأداة استقلالية المهام وتوسعها دون لمس ملف إعدادات واحد.

التوسع الذكي ودمج الخدمات الخلفية

يتناول هذا القسم قوة دمج وظائف Flash في الخدمات الخلفية (Backend) للتطبيقات المختلفة مثل بوتات Discord أو تطبيقات الجوال. بما أن كل وظيفة هي نقطة نهاية API، يمكن للمطورين إطلاق العشرات من المهام المتوازية في وقت واحد لمواجهة ضغط المستخدمين. يوضح المثال المطروح أنه في حال وجود 10 مستخدمين، سيقوم النظام بتشغيل 10 عمال مستقلين ثم يغلقهم فور الانتهاء. هذا النهج يمنع تكدس الطلبات في طوابير الانتظار الطويلة ويضمن استجابة سريعة للتطبيق. البنية التحتية هنا تتبع قاعدة النمو أو التقلص حسب حجم حركة المرور الفعلية، مما يحسن تجربة المستخدم النهائي بشكل كبير.

بناء خط أنابيب متعدد المراحل لتقليل التكاليف

يشرح المتحدث استراتيجية ذكية لتقليل التكاليف عبر بناء خط أنابيب معالجة يتكون من عدة مراحل مختلفة التجهيزات. يتم استخدام معالج CPU رخيص للمهام البسيطة مثل تغيير حجم الصور قبل تمرير البيانات إلى GPU متطور مثل RTX 5090. هذا الفصل يمنع إهدار الموارد المالية على معالجات رسومية غالية الثمن في مهام لا تتطلب قدرات حوسبة عالية. العملية تعتمد ببساطة على تمرير المتغيرات من وظيفة إلى أخرى داخل الكود البرمجي دون تعقيدات تنسيقية. يبرز هذا الجزء فلسفة الكفاءة في استخدام الموارد السحابية التي تقدمها RunPod Flash للمطورين المحترفين.

الإعداد البرمجي والتنفيذ العملي

ينتقل الفيديو إلى الجانب التطبيقي من خلال شرح كيفية إعداد البيئة الافتراضية باستخدام أداة UV وتثبيت حزمة Flash SDK. يوضح المتحدث كيفية تسجيل الدخول عبر سطر الأوامر ثم يستعرض هيكل ملف Python الذي يحتوي على نقاط النهاية المطلوبة. يتم عرض الكود البرمجي الذي يدير عملية تغيير الحجم التكيفي عبر الـ CPU وعملية توليد الفيديو عبر نموذج Cog Video X. يؤكد المتحدث أن الكود صغير الحجم وبسيط جداً مقارنة بالحلول البرمجية التقليدية التي كانت تتطلب مئات الأسطر. الهدف من هذا القسم هو إظهار مدى سهولة البدء والسرعة في تحويل الأفكار إلى خدمات شغالة.

النتائج النهائية وتحليل الأداء

في القسم الأخير، يتم استعراض نتيجة تشغيل النظام حيث يقوم العامل بمعالجة صورة كلب وتحويلها إلى فيديو بناءً على وصف نصي. يلاحظ المتحدث أن التشغيل الأول قد يستغرق وقتاً أطول لتثبيت التبعيات وتنزيل أوزان النموذج، بينما تكون التشغيلات التالية سريعة للغاية. يتم عرض لوحة تحليلات RunPod التي تتيح تتبع نجاح العمليات ومراقبة الفواتير المالية بشكل شفاف وواضح. يختم الفيديو بالتأكيد على أن هذه الأداة مثالية لمعالجة الصور والفيديوهات وتحليل المستندات الكبيرة عند الطلب. يطلب المتحدث في النهاية رأي الجمهور في الأداة ويحثهم على الاشتراك في القناة للمزيد من التحليلات التقنية.

Community Posts

No posts yet. Be the first to write about this video!

Write about this video