00:00:00RunPod baru saja merilis alat layanan baru yang sangat keren bernama RunPod Flash.
00:00:04Alat ini dirancang untuk menyederhanakan cara kita menerapkan fungsi GPU serverless.
00:00:09Secara tradisional, memindahkan skrip Python lokal ke GPU cloud memerlukan pembuatan citra Docker,
00:00:14menyiapkan lingkungan, mengunggahnya ke registri, dan mengelola penerapan yang terpisah.
00:00:19Namun Flash menghilangkan beban itu dengan membiarkan Anda mengubah fungsi Python standar
00:00:24menjadi endpoint cloud menggunakan dekorator sederhana yang dapat Anda jalankan sesuai permintaan.
00:00:29Dalam video hari ini, kita akan melihat lebih dekat RunPod Flash, melihat cara kerjanya,
00:00:33dan mencobanya sendiri dengan membangun generator video AI sesuai permintaan.
00:00:38Ini akan sangat menyenangkan, jadi mari kita mulai.
00:00:41RunPod Flash pada dasarnya bekerja dengan mengabstraksi lapisan infrastruktur sepenuhnya.
00:00:50Alih-alih Anda yang mengelola penerapan, SDK Flash mengemas kode dan dependensi Anda,
00:00:55lalu mendorongnya ke worker terkelola, yang hanya ada saat fungsi Anda sedang berjalan.
00:01:01Salah satu fitur terbaiknya adalah sinkronisasi lingkungan otomatis.
00:01:04Saya mengoding ini di Mac, tetapi Flash menangani semua tugas lintas platform yang berat,
00:01:09memastikan setiap pustaka dikompilasi dengan benar untuk worker GPU Linux saat saya menekan tombol run.
00:01:15Flash kemudian secara diam-diam menyediakan endpoint serverless untuk setiap fungsi,
00:01:20artinya Anda mendapatkan penskalaan dan perangkat keras independen untuk setiap tugas khusus tanpa perlu menyentuh
00:01:26file konfigurasi. Namun keajaiban sebenarnya terjadi saat Anda mengintegrasikan fungsi-fungsi ini ke dalam layanan
00:01:31backend. Karena setiap fungsi yang didekorasi pada dasarnya adalah endpoint API aktif, Anda dapat memicunya
00:01:36dari aplikasi web, bot Discord, atau backend seluler tanpa penyiapan tambahan sama sekali.
00:01:42Dan arsitekturnya sangat cocok untuk penskalaan, karena Anda dapat menjalankan puluhan tugas paralel sekaligus.
00:01:48Misalnya, jika ada 10 pengguna yang menunggu untuk membuat video AI, Flash tinggal menjalankan 10
00:01:54worker independen, lalu mematikan semuanya segera setelah selesai. Jadi Anda tidak terjebak
00:01:59menunggu satu GPU menyelesaikan seluruh antrean. Infrastruktur akan tumbuh atau menyusut,
00:02:05tergantung pada lalu lintas Anda. Sekarang Anda mungkin berpikir bahwa alur kerja multi-tahap seperti ini,
00:02:10yang mencampur perangkat keras dan data yang berbeda, akan memerlukan lapisan orkestrasi yang rumit. Namun di Flash,
00:02:16caranya hanya dengan meneruskan variabel dari satu fungsi ke fungsi lainnya. Untuk menunjukkan betapa hebatnya
00:02:21fitur ini, kita akan membangun alur kerja multi-tahap. Pertama, kita akan menggunakan worker CPU murah
00:02:27untuk menangani pra-pemrosesan. Dalam hal ini, kita akan mengubah ukuran gambar input secara adaptif. Dan kita akan
00:02:33meneruskan data tersebut, yaitu gambar yang telah diubah ukurannya, ke GPU RTX 5090 kelas atas untuk menghasilkan video
00:02:41berkualitas tinggi menggunakan model Cog Video X. Ini memastikan kita tidak membuang uang untuk GPU papan atas untuk
00:02:47tugas sederhana seperti mengubah ukuran gambar. Kita hanya memanggilnya untuk fungsi yang membutuhkan
00:02:52pemrosesan berat. Jadi untuk memulai, kita bisa membuat lingkungan virtual menggunakan UV, lalu menambahkan RunPod Flash,
00:02:59kemudian memuat ulang lingkungan virtual untuk memastikan semuanya berjalan lancar, agar variabel path
00:03:03lingkungan dimuat ulang. Dan kemudian Anda harus masuk ke akun RunPod Anda dengan menjalankan Flash login.
00:03:09Dari sana, kita bisa lanjut menyiapkan endpoint yang sebenarnya. Di sini saya punya file Python sederhana.
00:03:14Dan seperti yang Anda lihat, ukurannya cukup kecil. Dan file ini memiliki dua endpoint Flash. Yang satu melakukan
00:03:19pengubahan ukuran adaptif untuk gambar input, seperti yang saya sebutkan sebelumnya. Dan seperti yang Anda lihat di sini,
00:03:24ia hanya menggunakan CPU biasa dan memanggil pengubah ukuran gambar. Tidak ada yang istimewa. Dan kita memang tidak butuh
00:03:31hal yang rumit untuk operasi pemrosesan gambar sesederhana itu. Namun pada endpoint kedua, kita memiliki alur kerja generator
00:03:37video kustom, di mana kita menjalankan instans GPU khusus dengan RTX 5090. Dan menggunakan
00:03:43generator video COG video x dengan 5 miliar parameter untuk membuat video berdasarkan gambar input yang telah diubah ukurannya.
00:03:51Dan sekarang kita bisa melihat cara kerjanya saat dijalankan. Jadi kita bisa menambahkan gambar sederhana anjing ini,
00:03:57lalu memberikan perintah (prompt) yang akan kita gunakan untuk pembuatan video. Dan jika kita kembali ke
00:04:02RunPod sekarang, kita dapat melihat bahwa ada dua worker khusus dengan antrean aktif yang sedang
00:04:07memproses gambar dan video kita. Dan saya harus menyebutkan bahwa saat kita menjalankan endpoint ini untuk
00:04:12pertama kalinya, Anda mungkin mendapati bahwa alur kerjanya memakan waktu jauh lebih lama. Itu karena RunPod
00:04:17pada dasarnya sedang menginstal semua dependensi dan mengunduh bobot model, tetapi setiap
00:04:22eksekusi berikutnya akan jauh lebih cepat. Jadi sekarang mari kita tunggu beberapa detik lagi
00:04:28sampai alur kerjanya selesai. Dan lihat, sekarang kita mendapatkan hasil video output yang bagus.
00:04:33Dan pada tab analitik RunPod, kita juga dapat melacak berapa banyak penerapan yang telah kita lakukan, berapa banyak yang
00:04:39berhasil dan berapa banyak yang gagal. Kita juga dapat memantau penagihan kita. Jadi begitulah,
00:04:43itu adalah penjelasan singkat tentang RunPod Flash. Sejujurnya saya pikir ini adalah fitur yang sangat keren jika Anda
00:04:49membangun layanan backend apa pun yang memerlukan tugas pemrosesan AI berat sesuai permintaan seperti pembuatan gambar,
00:04:56pembuatan video, atau analisis dokumen yang berat atau semacamnya. Namun bagaimana pendapat Anda
00:05:01tentang RunPod Flash? Apakah menurut Anda fitur ini berguna? Sudahkah Anda mencobanya? Apakah Anda akan menggunakannya?
00:05:06Beri tahu kami di kolom komentar di bawah. Dan teman-teman, jika Anda menyukai ulasan teknis seperti ini,
00:05:10tolong beri tahu saya dengan menekan tombol like di bawah video ini. Dan juga jangan lupa untuk
00:05:15berlangganan ke saluran kami. Saya Andris dari Betterstack dan sampai jumpa di video-video berikutnya.