Transcript

00:00:00OpenClaw kini menjadi bagian dari OpenAI, dan Peter Steinberger, pencipta OpenClaw,
00:00:05bergabung dengan OpenAI. Menurut saya hal ini menarik dari perspektif pengembang karena beberapa
00:00:12alasan. Ini memberi tahu kita ke mana arah OpenAI dan memiliki beberapa implikasi
00:00:17menarik, menurut saya. Dalam sebuah postingan blog yang dibagikan Peter di situsnya, dia menyebutkan bahwa misi
00:00:25berikutnya adalah membangun agen yang bahkan bisa digunakan oleh ibunya. Karena tentu saja dengan OpenClaw saat ini,
00:00:32Anda masih memerlukan tingkat pengetahuan teknis atau keahlian tertentu untuk menyiapkannya
00:00:38dan menggunakannya. Dan menurut saya itu hal yang bagus, karena seperti yang juga saya sampaikan di video beberapa
00:00:45hari atau minggu yang lalu, OpenClaw bisa berbahaya atau memiliki masalah keamanan serius, yang banyak
00:00:53orang bahkan dengan keahlian teknis pun tidak mengerti atau justru mengabaikannya. Atau mereka tidak melakukan
00:01:00banyak hal berguna dengan OpenClaw seperti yang mereka bagikan. Hal itu tentu saja sangat mungkin karena,
00:01:06Anda tahu, ini internet dan tahun 2026. Ngomong-ngomong, saya membagikan pendapat saya tentang OpenClaw di video itu,
00:01:12tapi saya akan mengulasnya lagi dari waktu ke waktu di sini. Misi untuk memiliki agen AI yang bisa digunakan
00:01:19oleh semua orang pada dasarnya, dengan asumsi ibunya bukan pengembang yang hebat, jelas merupakan apa yang semua
00:01:27perusahaan AI, OpenAI dan Thoughtbreak, sedang kejar. Karena tentu saja menjadikan kami para pengembang
00:01:34sebagai pelanggan dengan alat seperti Cloud Code, Codex, dan sebagainya, yang semuanya hebat, itu bagus, tetapi
00:01:41pasar di luar sana jauh lebih besar. Dan tentu saja tujuan akhir dari perusahaan-perusahaan ini adalah mencapai titik
00:01:47di mana agen AI melakukan semuanya dan, yah, pada dasarnya kita bisa menggantikan manusia. Pertama di ruang digital
00:01:56dan kemudian dengan robotika di mana-mana. Sekarang, saya tidak akan membahas apakah itu akan terjadi dalam waktu dekat.
00:02:04Saya rasa saya sudah sering membagikan pendapat saya soal ini di banyak video. Saya bahkan tidak melihat pengembang akan digantikan
00:02:11dalam waktu dekat, apalagi manusia secara umum. Dan saya juga tidak percaya itu adalah tujuan yang baik. Tapi ya,
00:02:18itu cerita yang sangat berbeda. Yang menarik di sini adalah Sam Altman menyampaikan bahwa dengan
00:02:27bergabungnya Peter Steinberger ke OpenAI, pada akhirnya mereka berharap OpenClaw ini akan segera menjadi inti
00:02:35dari penawaran produk kami. Jadi, agen AI seperti OpenClaw. Dia juga menyebutkan bahwa OpenClaw akan
00:02:42berada di bawah yayasan sebagai proyek sumber terbuka (open source), jadi tetap terbuka, dan OpenAI akan terus
00:02:48mendukungnya. Masa depan akan sangat bersifat multi-agen, maka penting bagi kami untuk mendukung
00:02:54sumber terbuka sebagai bagian dari itu. Apa yang saya baca dari pernyataan tersebut sangat jelas bahwa OpenAI akan
00:03:01membangun penawaran agentik mereka sendiri di atas OpenClaw atau menggunakan beberapa pembelajaran atau bahkan bagian dari
00:03:09basis kode OpenClaw. Jadi OpenClaw akan tetap bersifat sumber terbuka dan mereka akan terus mendukungnya,
00:03:16mungkin sama seperti mereka akan terus bersikap terbuka. Saya tidak tahu. Tapi mereka pasti juga akan membangun
00:03:22sebuah agen dari semua pembelajaran dari OpenClaw, yang setahu saya kemungkinan besar tidak akan
00:03:29terbuka, melainkan akan menjadi penawaran berbayar, yang tentu saja masuk akal dari sudut pandang bisnis.
00:03:34Nah, dalam video saya, saya membagikan beberapa kekhawatiran tentang keamanan terkait OpenClaw. Dan kekhawatiran
00:03:44terbesar saya bukan tentang kerentanan dalam basis kode, yang tentu saja dapat diperbaiki seiring waktu
00:03:50dan di mana tentu saja memiliki perusahaan seukuran OpenAI sebagai pendukung bisa sangat membantu. Bukan itu
00:03:58kekhawatiran terbesar saya. Kekhawatiran terbesar saya terhadap OpenClaw dulu dan sekarang adalah prompt injection.
00:04:08Itulah kekhawatiran nomor satu saya dengan semua agen ini. Dan itu adalah masalah mendasar pada model bahasa besar.
00:04:16Agen pengodean itu luar biasa. Asisten yang hebat. Mereka banyak melakukan kesalahan. Mereka butuh arahan. Dan
00:04:25kapan pun saya mendengar orang bilang bahwa mereka sudah bisa menulis perangkat lunak dari awal sampai akhir, saya sangat ingin
00:04:31melihat semua perangkat lunak itu, karena itu bukan pengalaman saya. Namun di tangan seorang
00:04:37pengembang yang cakap, agen pengodean tersebut memang dapat memberikan peningkatan produktivitas yang signifikan. Itulah
00:04:44pengalaman saya dengan mereka. Itulah yang saya pikirkan tentang agen pengodean. Tapi yang penting, mereka masih jauh
00:04:50dari menggantikan pengembang. Dan tentu saja, pengodean sampai batas tertentu adalah tugas terbaik untuk model AI ini
00:04:58dan model bahasa besar karena ini adalah teks masuk, teks keluar. Dan banyak konteks yang relevan, tidak semua,
00:05:04tapi banyak konteks relevan ada tepat di dalam basis kode untuk dilihat dan digunakan oleh model tersebut.
00:05:10Dan itu tentu saja merupakan perbedaan besar dibandingkan dengan banyak tugas lain di dunia, di dunia digital juga.
00:05:16Tapi tidak peduli apakah kita bicara tentang agen pengodean atau agen seperti OpenClaw, prompt
00:05:22injection adalah masalah besar. Nah, prompt injection bisa bersifat halus atau tidak terduga. Tentu saja,
00:05:30Anda bisa bilang Anda yang menulis prompt dengan OpenClaw atau dengan agen pengodean, tapi begitu
00:05:37agen pengodean Anda mengunjungi sebuah situs web atau dalam kasus OpenClaw, membaca email, semua itu,
00:05:44semua teks yang dicernanya masuk ke dalam prompt baru. Dan itu adalah vektor serangan tepat di sana untuk prompt
00:05:51injection. Sekarang dengan agen pengodean, keuntungannya adalah pertama, Anda harus menjalankannya di sandbox,
00:05:58tapi kedua, mereka biasanya tidak memiliki akses luas ke akun email Anda, ke semua
00:06:05kehidupan digital Anda. Dan Anda sebagai pengembang harus memperhatikan apa yang dilakukan agen pengodean Anda.
00:06:13Anda biasanya harus memberikan atau menolak izin. Ia akan selalu bertanya apakah
00:06:18diizinkan melakukan ini atau itu. Dan tentu saja Anda bisa menjalankannya dalam mode berbahaya. Dan jika Anda
00:06:24menaruhnya di sandbox, Anda mungkin cukup aman sehingga ia tidak akan menghapus hard drive Anda, tetapi Anda
00:06:32tetap memasuki wilayah berbahaya terkait prompt injection, jika Anda tidak
00:06:39memeriksa apa yang dilakukan agen pengodean Anda sama sekali. Tetap saja, perbedaan utamanya dibandingkan dengan
00:06:45OpenClaw adalah agen pengodean tersebut tidak memiliki akses ke seluruh kehidupan digital Anda. Sekarang,
00:06:49ide dengan OpenClaw, tentu saja, adalah memiliki agen yang bahkan bisa digunakan oleh ibunya Peter. Dan tentu saja,
00:06:57idenya adalah Anda memiliki agen yang bisa melakukan apa saja untuk Anda. Anda cukup mengirim pesan, “Hei,
00:07:03tolong periksa email saya dan buatkan draf balasan.” Tentu saja, ia butuh akses ke akun email Anda.
00:07:09Jika ia punya akses ke akun email, ia bisa mengirim email. Dan saya bukan bicara soal mengirim
00:07:14email di mana ia mungkin mulai menghina orang, yang sudah cukup buruk, tapi ia bisa melakukan eksfiltrasi
00:07:19data karena coba tebak? Ia juga bisa mengumpulkan data. Ia bisa menjelajahi sistem Anda, mengumpulkan data,
00:07:24dan kemudian mengirimkannya melalui email ke aktor jahat akibat prompt injection, misalnya.
00:07:30Itulah masalah keamanan besar yang saya lihat, yang saya bagikan di video ini, dan yang tentu saja
00:07:35masih ada. Dan itulah bagian pentingnya, yang akan tetap ada bahkan dengan OpenAI di balik proyek ini.
00:07:42Sekarang, apakah ini sesuatu yang bisa diselesaikan? Pemahaman saya dengan model bahasa besar,
00:07:48cara kerjanya, bukan secara umum, melainkan hanya dengan konsep yang sudah lama kita miliki,
00:07:54yaitu “zero trust”. Idenya adalah Anda menjalankan agen pengodean Anda di lingkungan di mana Anda
00:08:02tidak mempercayai tindakannya apa pun dan di mana Anda membatasi apa yang bisa dilakukannya, dan Anda harus secara eksplisit
00:08:10memberikan izin untuk hal-hal tertentu yang ingin Anda izinkan. Dan misalnya, dalam hal
00:08:14mengirim email, Anda mungkin ingin menyiapkan lingkungan di mana ia harus meminta izin untuk setiap
00:08:20email yang ingin dikirim dan Anda sebagai manusia harus memvalidasinya lalu menyetujui atau menolak
00:08:25permintaan tersebut. Tentu saja, lingkungan seperti itu, yang sangat membatasi dan menanyakan Anda setiap saat
00:08:33apakah Anda ingin memberikan izin tertentu atau tidak, tidak terlalu sejalan dengan filosofi
00:08:39memiliki agen luar biasa yang bisa melakukan semuanya atas nama Anda sementara Anda sedang tidur nyenyak.
00:08:45Dan itulah sebabnya saya tidak melihat masa depan agentik itu sekarang, mungkin tidak dalam waktu dekat,
00:08:55tapi kita lihat saja apa yang bisa dilakukan OpenAI di sana. Mereka juga mungkin tidak terlalu peduli dengan
00:09:03masalah keamanan, tapi sekali lagi mereka mungkin harus peduli karena pelanggan berbayar mereka kemungkinan
00:09:10tidak akan terlalu senang jika data mereka bocor. Singkat cerita, saya masih sangat skeptis meskipun saya melihat
00:09:20daya tarik agen seperti OpenClaw. Memiliki asisten 24/7 yang membantu urusan
00:09:27digital terdengar cukup menyenangkan dan saya jelas melihat bahwa ini adalah masa depan yang mungkin kita tuju.
00:09:35Dan meskipun saya belum memiliki kasus penggunaan di mana itu akan sangat berguna karena saya tidak
00:09:42ingin memberinya izin yang luas, dan bahkan dengan izin itu saya tidak yakin apakah saya akan punya banyak
00:09:48kasus penggunaan, bahkan dengan semua itu saya sangat mengerti mengapa OpenAI sangat tertarik pada proyek ini.
00:09:55Ini juga bisa berarti bahwa OpenClaw perlahan akan hilang seiring waktu, euforianya mungkin
00:10:03akan segera mereda juga karena citra OpenAI dan tentu saja karena seperti yang saya baca,
00:10:09ini terdengar seperti pernyataan korporat biasa di mana mereka bilang “ya ya kami akan
00:10:14mendukung ini” dan kemudian di satu titik mereka berhenti mendukungnya, mereka tidak peduli, mereka membangun
00:10:20produk mereka sendiri dan kemudian saya rasa kita akan melihat seberapa baik atau buruk produk itu nantinya.

Key Takeaway

Bergabungnya pencipta OpenClaw ke OpenAI menunjukkan ambisi industri untuk menciptakan agen AI otonom bagi massa, namun tantangan keamanan kritis seperti prompt injection dan privasi data tetap menjadi penghalang besar bagi adopsi penuh.

Highlights

Akuisisi OpenClaw oleh OpenAI menandai pergeseran strategis menuju pengembangan agen AI yang ramah pengguna bagi non-pengembang.

Visi masa depan OpenAI melibatkan ekosistem multi-agen di mana AI dapat menangani tugas-tugas digital dan fisik secara mandiri.

Prompt injection tetap menjadi ancaman keamanan utama yang belum terpecahkan dalam model bahasa besar (LLM) dan sistem agen.

Perbedaan risiko antara agen pengodean yang terisolasi dalam sandbox dengan agen asisten pribadi yang memiliki akses ke data sensitif.

Penerapan prinsip "zero trust" dan validasi manusia secara eksplisit dianggap sebagai hambatan bagi kenyamanan otomatisasi penuh.

Keraguan mengenai komitmen jangka panjang OpenAI terhadap proyek sumber terbuka setelah mereka mengembangkan versi komersial sendiri.

Timeline

Akuisisi OpenClaw dan Visi OpenAI

Pembicara membahas berita bergabungnya Peter Steinberger, pencipta OpenClaw, ke dalam tim OpenAI untuk mengembangkan teknologi agen. Misi utamanya adalah membangun agen AI yang cukup sederhana sehingga bisa digunakan oleh orang awam tanpa keahlian teknis khusus. Langkah ini sangat menarik bagi pengembang karena menunjukkan arah strategis OpenAI dalam memperluas pasar di luar komunitas teknis. Fokusnya adalah mengubah alat yang sebelumnya kompleks menjadi asisten digital yang intuitif bagi semua orang. Hal ini menandai fase baru dalam persaingan perusahaan AI untuk mendominasi interaksi digital manusia.

Ambisi Masa Depan: Otomatisasi Digital dan Robotika

Bagian ini mengeksplorasi tujuan akhir dari perusahaan AI untuk menciptakan agen yang dapat menggantikan peran manusia dalam ruang digital dan nantinya di dunia nyata melalui robotika. Meskipun visi ini ambisius, pembicara menyatakan skeptisisme bahwa pengembang atau manusia pada umumnya akan digantikan dalam waktu dekat. Sam Altman menekankan bahwa OpenClaw akan menjadi inti dari penawaran produk OpenAI di masa depan yang bersifat multi-agen. OpenAI berjanji untuk tetap mendukung aspek sumber terbuka (open source) dari proyek ini meskipun ada kemungkinan pengembangan versi berbayar yang lebih canggih. Integrasi ini bertujuan untuk menciptakan infrastruktur di mana berbagai agen AI dapat bekerja secara kolaboratif.

Ancaman Keamanan: Masalah Prompt Injection

Pembicara menguraikan kekhawatiran terbesarnya mengenai keamanan agen AI, yaitu kerentanan terhadap serangan prompt injection. Masalah ini dianggap sebagai cacat fundamental dalam cara kerja model bahasa besar yang sulit untuk diperbaiki secara tuntas. Walaupun agen pengodean sangat membantu meningkatkan produktivitas pengembang, mereka tetap sering melakukan kesalahan dan membutuhkan arahan manusia. Keamanan kode sumber itu sendiri bisa diperbaiki oleh OpenAI, namun manipulasi input teks tetap menjadi risiko yang menghantui setiap sistem agen. Pemahaman mendalam tentang risiko ini sangat penting sebelum memberikan otonomi lebih besar kepada AI.

Vektor Serangan dan Akses Data Digital

Diskusi berlanjut pada bagaimana prompt injection bisa terjadi secara halus ketika agen membaca email atau mengunjungi situs web yang mengandung instruksi jahat. Jika sebuah agen seperti OpenClaw diberi akses ke akun email pribadi, aktor jahat bisa melakukan eksfiltrasi data sensitif melalui perintah tersembunyi. Perbedaan besar ditekankan antara agen pengodean yang biasanya terkunci dalam sandbox dan agen asisten yang memiliki akses luas ke kehidupan digital pengguna. Tanpa pengawasan ketat, agen tersebut bisa secara tidak sengaja mengirimkan informasi rahasia ke pihak luar. Risiko ini tetap ada terlepas dari seberapa besar perusahaan yang mendukung pengembangan proyek tersebut.

Konsep Zero Trust dan Skeptisisme Masa Depan

Sebagai solusi potensial, pembicara menyarankan penerapan konsep "zero trust" di mana setiap tindakan agen harus mendapatkan izin eksplisit dari manusia. Namun, prosedur validasi manual yang ketat ini justru bertentangan dengan janji otomatisasi penuh yang membuat hidup lebih mudah bagi pengguna. Pembicara meragukan apakah OpenAI akan benar-benar memprioritaskan keamanan jika hal itu menghambat kenyamanan pelanggan berbayar mereka. Ada pula kekhawatiran bahwa komitmen OpenAI terhadap proyek sumber terbuka OpenClaw hanya bersifat sementara demi kepentingan korporat. Kesimpulannya, meskipun masa depan agen AI terdengar menjanjikan, banyak hambatan praktis dan etis yang harus diselesaikan sebelum teknologi ini benar-benar aman digunakan.

Community Posts

View all posts