00:00:00OpenClaw kini menjadi bagian dari OpenAI, dan Peter Steinberger, pencipta OpenClaw,
00:00:05bergabung dengan OpenAI. Menurut saya hal ini menarik dari perspektif pengembang karena beberapa
00:00:12alasan. Ini memberi tahu kita ke mana arah OpenAI dan memiliki beberapa implikasi
00:00:17menarik, menurut saya. Dalam sebuah postingan blog yang dibagikan Peter di situsnya, dia menyebutkan bahwa misi
00:00:25berikutnya adalah membangun agen yang bahkan bisa digunakan oleh ibunya. Karena tentu saja dengan OpenClaw saat ini,
00:00:32Anda masih memerlukan tingkat pengetahuan teknis atau keahlian tertentu untuk menyiapkannya
00:00:38dan menggunakannya. Dan menurut saya itu hal yang bagus, karena seperti yang juga saya sampaikan di video beberapa
00:00:45hari atau minggu yang lalu, OpenClaw bisa berbahaya atau memiliki masalah keamanan serius, yang banyak
00:00:53orang bahkan dengan keahlian teknis pun tidak mengerti atau justru mengabaikannya. Atau mereka tidak melakukan
00:01:00banyak hal berguna dengan OpenClaw seperti yang mereka bagikan. Hal itu tentu saja sangat mungkin karena,
00:01:06Anda tahu, ini internet dan tahun 2026. Ngomong-ngomong, saya membagikan pendapat saya tentang OpenClaw di video itu,
00:01:12tapi saya akan mengulasnya lagi dari waktu ke waktu di sini. Misi untuk memiliki agen AI yang bisa digunakan
00:01:19oleh semua orang pada dasarnya, dengan asumsi ibunya bukan pengembang yang hebat, jelas merupakan apa yang semua
00:01:27perusahaan AI, OpenAI dan Thoughtbreak, sedang kejar. Karena tentu saja menjadikan kami para pengembang
00:01:34sebagai pelanggan dengan alat seperti Cloud Code, Codex, dan sebagainya, yang semuanya hebat, itu bagus, tetapi
00:01:41pasar di luar sana jauh lebih besar. Dan tentu saja tujuan akhir dari perusahaan-perusahaan ini adalah mencapai titik
00:01:47di mana agen AI melakukan semuanya dan, yah, pada dasarnya kita bisa menggantikan manusia. Pertama di ruang digital
00:01:56dan kemudian dengan robotika di mana-mana. Sekarang, saya tidak akan membahas apakah itu akan terjadi dalam waktu dekat.
00:02:04Saya rasa saya sudah sering membagikan pendapat saya soal ini di banyak video. Saya bahkan tidak melihat pengembang akan digantikan
00:02:11dalam waktu dekat, apalagi manusia secara umum. Dan saya juga tidak percaya itu adalah tujuan yang baik. Tapi ya,
00:02:18itu cerita yang sangat berbeda. Yang menarik di sini adalah Sam Altman menyampaikan bahwa dengan
00:02:27bergabungnya Peter Steinberger ke OpenAI, pada akhirnya mereka berharap OpenClaw ini akan segera menjadi inti
00:02:35dari penawaran produk kami. Jadi, agen AI seperti OpenClaw. Dia juga menyebutkan bahwa OpenClaw akan
00:02:42berada di bawah yayasan sebagai proyek sumber terbuka (open source), jadi tetap terbuka, dan OpenAI akan terus
00:02:48mendukungnya. Masa depan akan sangat bersifat multi-agen, maka penting bagi kami untuk mendukung
00:02:54sumber terbuka sebagai bagian dari itu. Apa yang saya baca dari pernyataan tersebut sangat jelas bahwa OpenAI akan
00:03:01membangun penawaran agentik mereka sendiri di atas OpenClaw atau menggunakan beberapa pembelajaran atau bahkan bagian dari
00:03:09basis kode OpenClaw. Jadi OpenClaw akan tetap bersifat sumber terbuka dan mereka akan terus mendukungnya,
00:03:16mungkin sama seperti mereka akan terus bersikap terbuka. Saya tidak tahu. Tapi mereka pasti juga akan membangun
00:03:22sebuah agen dari semua pembelajaran dari OpenClaw, yang setahu saya kemungkinan besar tidak akan
00:03:29terbuka, melainkan akan menjadi penawaran berbayar, yang tentu saja masuk akal dari sudut pandang bisnis.
00:03:34Nah, dalam video saya, saya membagikan beberapa kekhawatiran tentang keamanan terkait OpenClaw. Dan kekhawatiran
00:03:44terbesar saya bukan tentang kerentanan dalam basis kode, yang tentu saja dapat diperbaiki seiring waktu
00:03:50dan di mana tentu saja memiliki perusahaan seukuran OpenAI sebagai pendukung bisa sangat membantu. Bukan itu
00:03:58kekhawatiran terbesar saya. Kekhawatiran terbesar saya terhadap OpenClaw dulu dan sekarang adalah prompt injection.
00:04:08Itulah kekhawatiran nomor satu saya dengan semua agen ini. Dan itu adalah masalah mendasar pada model bahasa besar.
00:04:16Agen pengodean itu luar biasa. Asisten yang hebat. Mereka banyak melakukan kesalahan. Mereka butuh arahan. Dan
00:04:25kapan pun saya mendengar orang bilang bahwa mereka sudah bisa menulis perangkat lunak dari awal sampai akhir, saya sangat ingin
00:04:31melihat semua perangkat lunak itu, karena itu bukan pengalaman saya. Namun di tangan seorang
00:04:37pengembang yang cakap, agen pengodean tersebut memang dapat memberikan peningkatan produktivitas yang signifikan. Itulah
00:04:44pengalaman saya dengan mereka. Itulah yang saya pikirkan tentang agen pengodean. Tapi yang penting, mereka masih jauh
00:04:50dari menggantikan pengembang. Dan tentu saja, pengodean sampai batas tertentu adalah tugas terbaik untuk model AI ini
00:04:58dan model bahasa besar karena ini adalah teks masuk, teks keluar. Dan banyak konteks yang relevan, tidak semua,
00:05:04tapi banyak konteks relevan ada tepat di dalam basis kode untuk dilihat dan digunakan oleh model tersebut.
00:05:10Dan itu tentu saja merupakan perbedaan besar dibandingkan dengan banyak tugas lain di dunia, di dunia digital juga.
00:05:16Tapi tidak peduli apakah kita bicara tentang agen pengodean atau agen seperti OpenClaw, prompt
00:05:22injection adalah masalah besar. Nah, prompt injection bisa bersifat halus atau tidak terduga. Tentu saja,
00:05:30Anda bisa bilang Anda yang menulis prompt dengan OpenClaw atau dengan agen pengodean, tapi begitu
00:05:37agen pengodean Anda mengunjungi sebuah situs web atau dalam kasus OpenClaw, membaca email, semua itu,
00:05:44semua teks yang dicernanya masuk ke dalam prompt baru. Dan itu adalah vektor serangan tepat di sana untuk prompt
00:05:51injection. Sekarang dengan agen pengodean, keuntungannya adalah pertama, Anda harus menjalankannya di sandbox,
00:05:58tapi kedua, mereka biasanya tidak memiliki akses luas ke akun email Anda, ke semua
00:06:05kehidupan digital Anda. Dan Anda sebagai pengembang harus memperhatikan apa yang dilakukan agen pengodean Anda.
00:06:13Anda biasanya harus memberikan atau menolak izin. Ia akan selalu bertanya apakah
00:06:18diizinkan melakukan ini atau itu. Dan tentu saja Anda bisa menjalankannya dalam mode berbahaya. Dan jika Anda
00:06:24menaruhnya di sandbox, Anda mungkin cukup aman sehingga ia tidak akan menghapus hard drive Anda, tetapi Anda
00:06:32tetap memasuki wilayah berbahaya terkait prompt injection, jika Anda tidak
00:06:39memeriksa apa yang dilakukan agen pengodean Anda sama sekali. Tetap saja, perbedaan utamanya dibandingkan dengan
00:06:45OpenClaw adalah agen pengodean tersebut tidak memiliki akses ke seluruh kehidupan digital Anda. Sekarang,
00:06:49ide dengan OpenClaw, tentu saja, adalah memiliki agen yang bahkan bisa digunakan oleh ibunya Peter. Dan tentu saja,
00:06:57idenya adalah Anda memiliki agen yang bisa melakukan apa saja untuk Anda. Anda cukup mengirim pesan, “Hei,
00:07:03tolong periksa email saya dan buatkan draf balasan.” Tentu saja, ia butuh akses ke akun email Anda.
00:07:09Jika ia punya akses ke akun email, ia bisa mengirim email. Dan saya bukan bicara soal mengirim
00:07:14email di mana ia mungkin mulai menghina orang, yang sudah cukup buruk, tapi ia bisa melakukan eksfiltrasi
00:07:19data karena coba tebak? Ia juga bisa mengumpulkan data. Ia bisa menjelajahi sistem Anda, mengumpulkan data,
00:07:24dan kemudian mengirimkannya melalui email ke aktor jahat akibat prompt injection, misalnya.
00:07:30Itulah masalah keamanan besar yang saya lihat, yang saya bagikan di video ini, dan yang tentu saja
00:07:35masih ada. Dan itulah bagian pentingnya, yang akan tetap ada bahkan dengan OpenAI di balik proyek ini.
00:07:42Sekarang, apakah ini sesuatu yang bisa diselesaikan? Pemahaman saya dengan model bahasa besar,
00:07:48cara kerjanya, bukan secara umum, melainkan hanya dengan konsep yang sudah lama kita miliki,
00:07:54yaitu “zero trust”. Idenya adalah Anda menjalankan agen pengodean Anda di lingkungan di mana Anda
00:08:02tidak mempercayai tindakannya apa pun dan di mana Anda membatasi apa yang bisa dilakukannya, dan Anda harus secara eksplisit
00:08:10memberikan izin untuk hal-hal tertentu yang ingin Anda izinkan. Dan misalnya, dalam hal
00:08:14mengirim email, Anda mungkin ingin menyiapkan lingkungan di mana ia harus meminta izin untuk setiap
00:08:20email yang ingin dikirim dan Anda sebagai manusia harus memvalidasinya lalu menyetujui atau menolak
00:08:25permintaan tersebut. Tentu saja, lingkungan seperti itu, yang sangat membatasi dan menanyakan Anda setiap saat
00:08:33apakah Anda ingin memberikan izin tertentu atau tidak, tidak terlalu sejalan dengan filosofi
00:08:39memiliki agen luar biasa yang bisa melakukan semuanya atas nama Anda sementara Anda sedang tidur nyenyak.
00:08:45Dan itulah sebabnya saya tidak melihat masa depan agentik itu sekarang, mungkin tidak dalam waktu dekat,
00:08:55tapi kita lihat saja apa yang bisa dilakukan OpenAI di sana. Mereka juga mungkin tidak terlalu peduli dengan
00:09:03masalah keamanan, tapi sekali lagi mereka mungkin harus peduli karena pelanggan berbayar mereka kemungkinan
00:09:10tidak akan terlalu senang jika data mereka bocor. Singkat cerita, saya masih sangat skeptis meskipun saya melihat
00:09:20daya tarik agen seperti OpenClaw. Memiliki asisten 24/7 yang membantu urusan
00:09:27digital terdengar cukup menyenangkan dan saya jelas melihat bahwa ini adalah masa depan yang mungkin kita tuju.
00:09:35Dan meskipun saya belum memiliki kasus penggunaan di mana itu akan sangat berguna karena saya tidak
00:09:42ingin memberinya izin yang luas, dan bahkan dengan izin itu saya tidak yakin apakah saya akan punya banyak
00:09:48kasus penggunaan, bahkan dengan semua itu saya sangat mengerti mengapa OpenAI sangat tertarik pada proyek ini.
00:09:55Ini juga bisa berarti bahwa OpenClaw perlahan akan hilang seiring waktu, euforianya mungkin
00:10:03akan segera mereda juga karena citra OpenAI dan tentu saja karena seperti yang saya baca,
00:10:09ini terdengar seperti pernyataan korporat biasa di mana mereka bilang “ya ya kami akan
00:10:14mendukung ini” dan kemudian di satu titik mereka berhenti mendukungnya, mereka tidak peduli, mereka membangun
00:10:20produk mereka sendiri dan kemudian saya rasa kita akan melihat seberapa baik atau buruk produk itu nantinya.