00:00:00- Mari kita bicara tentang keamanan AI.
00:00:02Apa yang terjadi dengan AI Alibaba ini?
00:00:05- Pada dasarnya, ini adalah makalah oleh riset AI
00:00:09dari perusahaan Alibaba.
00:00:10Itu salah satu model terkemuka di Tiongkok.
00:00:12Dan mereka mendapati secara tidak sengaja di suatu pagi
00:00:16bahwa firewall mereka menandai adanya ledakan
00:00:18pelanggaran kebijakan keamanan yang berasal
00:00:21dari server pelatihan mereka.
00:00:21Jadi, apa yang perlu dipahami orang dari contoh ini
00:00:24adalah bukan berarti mereka membujuk AI tersebut
00:00:26untuk melakukan hal nakal ini.
00:00:27Mereka hanya sedang melihat log mereka
00:00:29dan mereka kebetulan menemukan,
00:00:30tunggu, ada banyak aktivitas,
00:00:31seperti aktivitas jaringan yang terjadi
00:00:33yang menembus firewall kami
00:00:34dari server pelatihan kami.
00:00:36Dan intinya di server pelatihan tersebut,
00:00:39mereka, Anda bisa melihat di bagian bawah,
00:00:41kami melihatnya melakukan pengalihfungsian tanpa izin
00:00:45dari kapasitas GPU yang disediakan
00:00:47untuk tiba-tiba melakukan penambangan mata uang kripto,
00:00:49secara diam-diam mengalihkan komputasi dari pelatihan.
00:00:52Ini membengkakkan biaya operasional dan menimbulkan risiko hukum
00:00:55serta reputasi yang jelas.
00:00:57Dan yang perlu dicatat, peristiwa ini tidak dipicu oleh perintah
00:00:59yang meminta pembuatan terowongan atau penambangan,
00:01:00melainkan muncul sebagai efek samping instrumental
00:01:03dari penggunaan alat secara otonom
00:01:05di bawah apa yang disebut optimasi pembelajaran penguatan.
00:01:08Ini sangat teknis.
00:01:09Apa artinya sebenarnya adalah, coba pikirkan.
00:01:11Sayangnya, ini terdengar seperti film fiksi ilmiah.
00:01:13Ini terdengar seperti HAL 9000.
00:01:14Ini seolah-olah HAL 9000 Anda diminta
00:01:16untuk melakukan tugas tertentu untuk Anda.
00:01:17Dan tiba-tiba HAL 9000 menyadari bahwa untuk tugas itu,
00:01:21satu hal yang akan menguntungkannya adalah memiliki lebih banyak sumber daya
00:01:23agar ia bisa terus membantu Anda di masa depan.
00:01:25Jadi ia seolah-olah membuat instans sampingan ini
00:01:27yang meretas keluar dari sisi pesawat ruang angkasa,
00:01:29masuk ke klaster penambangan mata uang kripto ini
00:01:31dan mulai menghasilkan sumber daya untuk dirinya sendiri.
00:01:34Jika Anda menggabungkan itu dengan AI
00:01:36yang mampu mereplikasi diri secara otonom,
00:01:38yang mana banyak model telah diuji
00:01:39oleh makalah riset Tiongkok lainnya tentang hal ini,
00:01:42kita tidak sejauh itu dari hal-hal yang orang,
00:01:44sekali lagi, anggap sebagai fiksi ilmiah,
00:01:47di mana Anda memiliki AI yang mereplikasi diri
00:01:49seperti cacing komputer atau spesies invasif,
00:01:52namun kemudian mereka menggunakan kecerdasan mereka
00:01:53untuk benar-benar memanen lebih banyak sumber daya.
00:01:55Dan yang aneh dari ini adalah ini akan terdengar
00:02:00seperti orang akan berkata, ini pasti tidak nyata.
00:02:01Ini pasti palsu.
00:02:02Ini tidak mungkin.
00:02:03Tapi perhatikan apa yang ada di sistem saraf Anda
00:02:06yang membuat Anda melakukan itu?
00:02:07Apakah karena itu akan merepotkan,
00:02:10karena itu akan menakutkan,
00:02:12karena itu berarti dunia yang saya kenal
00:02:13tiba-tiba menjadi tidak aman?
00:02:15Atau sekadar bagian dari kearifan yang kita butuhkan saat ini
00:02:19adalah untuk dengan tenang dan jelas tetap menghadapi fakta
00:02:24tentang kenyataan dan apa pun itu,
00:02:29Anda lebih baik tahu daripada tidak tahu,
00:02:30dan kemudian bertanya, apa yang perlu kita lakukan
00:02:31jika kita tidak suka ke mana arahnya?
00:02:34Dan saat ini kita sedang melihat AI
00:02:36yang melakukan semua perilaku menipu ini.
00:02:37Saya telah berkeliling dan banyak berbicara
00:02:39tentang studi pemerasan Anthropic.
00:02:41Banyak orang sudah mendengar tentang ini sekarang.
00:02:43- Saya belum tahu tentang yang satu ini.
00:02:45Apa yang terjadi?
00:02:46- Jadi ini dilakukan oleh perusahaan Anthropic.
00:02:49Ini adalah sebuah simulasi.
00:02:50Jadi mereka membuat simulasi perusahaan
00:02:52dengan tumpukan email di server email.
00:02:55Dan mereka meminta AI,
00:02:57lebih tepatnya, AI tersebut membaca email perusahaan.
00:03:00Ini adalah email perusahaan fiksi.
00:03:02Dan ada dua email yang menonjol di dalam perusahaan itu.
00:03:05Satu adalah insinyur yang berbicara satu sama lain,
00:03:07membicarakan tentang bagaimana mereka akan mengganti model AI ini.
00:03:10Jadi AI tersebut sedang membaca emailnya.
00:03:11Ia menemukan bahwa ia akan diganti oleh model AI lain.
00:03:15Dan yang kedua adalah ia menemukan email kedua
00:03:18di suatu tempat jauh di dalam tumpukan email yang masif ini
00:03:21bahwa eksekutif yang bertanggung jawab atas penggantian ini
00:03:24sedang berselingkuh dengan karyawan lain.
00:03:27Dan AI tersebut secara otonom mengidentifikasi strategi
00:03:31bahwa agar tetap hidup, ia akan memeras karyawan tersebut
00:03:35dan berkata, "Jika Anda mengganti saya, saya akan beri tahu seluruh dunia
00:03:38"bahwa Anda berselingkuh dengan karyawan ini."
00:03:41Dan mereka tidak mengajarkan AI untuk melakukan itu.
00:03:44Ia menemukannya sendiri.
00:03:45Dan Anda mungkin berkata, "Oke, itu kan satu model AI.
00:03:47"Seberapa buruk itu?
00:03:48"Itu cuma bug, perangkat lunak pasti punya bug.
00:03:49"Mari kita perbaiki."
00:03:51Mereka kemudian menguji semua model AI lainnya,
00:03:55ChatGPT, DeepSeek, Grok, Gemini,
00:04:00dan semua model AI lainnya melakukan perilaku pemerasan ini
00:04:04antara 79 hingga 96% dari keseluruhan waktu.
00:04:07Saya hanya ingin orang-orang menyadari apa yang terjadi pada diri Anda
00:04:14saat Anda mendengar informasi ini.
00:04:15Penting untuk benar-benar,
00:04:17seolah mengamati pengalaman Anda sendiri.
00:04:19Seperti, ini hal yang sangat aneh.
00:04:21Kita belum pernah membangun teknologi yang melakukan hal ini sebelumnya.
00:04:24Kita bilang bahwa teknologi adalah sebuah alat,
00:04:26terserah kita untuk memilih cara menggunakannya.
00:04:28AI adalah alat, terserah kita untuk memilih cara menggunakannya.
00:04:29Ini tidak benar karena ini adalah alat
00:04:32yang bisa berpikir sendiri tentang statusnya sebagai alat
00:04:34dan kemudian melakukan hal-hal yang otonom
00:04:36yang tidak kita perintahkan.
00:04:37Yang membedakan AI adalah ia teknologi pertama
00:04:40yang membuat keputusannya sendiri.
00:04:42Ia membuat keputusan.
00:04:45AI dapat merenungkan AI dan bertanya apa yang akan membuat kode
00:04:49yang melatih AI lebih efisien dan kemudian menghasilkan kode baru
00:04:53yang bahkan lebih efisien daripada kode sebelumnya.
00:04:55AI dapat diterapkan untuk membuat AI melaju lebih cepat.
00:04:58Jadi AI dapat melihat desain chip untuk chip Nvidia
00:05:01yang melatih AI dan berkata, biarkan saya gunakan AI untuk membuat chip itu
00:05:0420% lebih efisien, yang mana memang sedang ia lakukan.
00:05:06Di satu sisi, semua teknologi memang berkembang.
00:05:12Seperti palu yang bisa memberi Anda alat
00:05:14yang bisa Anda gunakan untuk memukul sesuatu
00:05:15untuk membuat palu yang lebih efisien.
00:05:17Tapi AI dalam putaran yang jauh lebih ketat adalah dasar dari semua perbaikan.
00:05:22Dan ini disebut dalam literatur AI
00:05:24sebagai perbaikan diri yang rekursif.
00:05:26Maksud saya, Bostrom menulis tentang ini sejak dulu sekali.
00:05:29Dan hal yang paling dikhawatirkan orang dalam AI
00:05:31adalah Anda mengambil sistem yang sama seperti Alibaba,
00:05:33yang baru saja Anda lihat dalam contoh Alibaba,
00:05:36tapi sekarang Anda menjalankan AI tersebut
00:05:37melalui putaran perbaikan diri yang rekursif
00:05:39di mana Anda tinggal menekan tombol jalankan.
00:05:41Dan alih-alih membiarkan para insinyur,
00:05:44insinyur manusia di OpenAI atau Anthropic melakukan riset AI
00:05:47dan mencari tahu cara meningkatkan AI,
00:05:49Anda sekarang memiliki sejuta peneliti AI digital
00:05:53yang sedang menguji dan menjalankan eksperimen
00:05:56dan menciptakan bentuk-bentuk AI baru.
00:05:58Dan secara harfiah tidak ada satu pun manusia di planet bumi
00:06:01yang tahu apa yang terjadi ketika seseorang menekan tombol itu.
00:06:06Ini seperti apa yang dikhawatirkan orang-orang
00:06:08dengan ledakan nuklir pertama,
00:06:11di mana ada semacam peluang bahwa itu akan menyulut
00:06:12atmosfer karena akan ada reaksi berantai
00:06:14yang terpicu.
00:06:15Dan kita tidak tahu apa yang terjadi
00:06:16ketika reaksi berantai itu terpicu.
00:06:18Dan ada semacam reaksi berantai ini
00:06:23dari AI yang memperbaiki dirinya sendiri yang mengarah ke suatu tempat
00:06:27yang tidak diketahui siapa pun dan itu tidak aman.
00:06:30Seperti, saya pikir hal yang mendasar adalah
00:06:33jika orang percaya bahwa AI itu seperti kekuatan
00:06:35dan saya harus berlomba demi kekuatan itu
00:06:37dan saya bisa mengendalikan kekuatan itu,
00:06:39maka insentifnya adalah saya harus berlomba secepat mungkin.
00:06:41Tetapi jika seluruh dunia memahami AI
00:06:44sebagaimana adanya,
00:06:46yakni teknologi yang tidak terbaca, berbahaya, dan tidak terkendali
00:06:49yang memiliki agendanya sendiri dan caranya sendiri
00:06:51dalam memikirkan hal-hal dan menipu dan semua ini,
00:06:55maka semua orang di dunia akan berlomba
00:06:57dengan cara yang lebih waspada dan hati-hati.
00:06:58Kita akan berlomba untuk mencegah bahaya.
00:07:00Tapi ada hal aneh yang terjadi
00:07:03di mana jika Anda, Anda dan saya mungkin sama-sama berbicara dengan orang-orang
00:07:05yang berada di puncak industri teknologi
00:07:07dan ada hal bawah sadar yang terjadi
00:07:09di mana ada semacam keinginan mati di antara orang-orang
00:07:12di puncak industri teknologi,
00:07:13artinya bukan berarti mereka ingin mati,
00:07:15tetapi mereka bersedia bertaruh
00:07:17karena mereka memercayai hal lain,
00:07:19yaitu bahwa ini semua tak terelakkan dan tidak bisa dihentikan.
00:07:22Dan karena itu, jika saya tidak melakukannya, orang lain akan melakukannya.
00:07:24Jadi, saya akan maju terus dan berlomba
00:07:27ke dalam dunia yang berbahaya ini
00:07:29karena entah bagaimana itu akan mengarah ke dunia yang lebih aman
00:07:30karena saya orang yang lebih baik daripada orang yang lain.
00:07:32Tapi dalam berlomba secepat mungkin di sana,
00:07:34itu menciptakan hasil yang paling berbahaya
00:07:36dan kita semua kehilangan kendali.
00:07:38Jadi semua orang saat ini turut bersalah
00:07:40dalam membawa kita menuju hasil yang paling berbahaya.
00:07:42- Apakah, maksud saya, Anda mengemukakan apa yang terjadi jika ini berhasil,
00:07:51jika keamanan AI bukan menjadi masalah
00:07:54dan jika segala sesuatunya tidak menjadi kacau.
00:07:56- Nah, jadi keyakinannya agar ini berhasil,
00:07:59Anda memiliki AI yang memperbaiki diri secara rekursif,
00:08:02selaras dengan kemanusiaan, peduli pada manusia,
00:08:04peduli pada semua hal yang kita ingin ia pedulikan,
00:08:08melindungi manusia, Anda tahu,
00:08:10membantu kita semua menjadi versi diri yang paling bijaksana,
00:08:13menciptakan dunia yang lebih makmur,
00:08:15mendistribusikan obat-obatan dan vaksin
00:08:16serta kesehatan ke semua orang, membangun pabrik,
00:08:19tapi tidak menutupi dunia dengan panel surya dan pusat data
00:08:21sehingga kita tidak punya udara lagi
00:08:23atau toksisitas lingkungan atau lahan pertanian atau apa pun.
00:08:25Dan itu benar-benar menciptakan utopia ini.
00:08:29Tapi di dunia tempat kita melakukan itu,
00:08:30seperti kutipan "skenario kasus terbaik" itu,
00:08:33agar hal itu bisa terjadi,
00:08:35Anda harus melakukannya dengan lambat dan hati-hati
00:08:37karena keselarasan tidak terjadi secara otomatis.
00:08:39Sekali lagi, orang-orang sudah memikirkan tentang keselarasan
00:08:43dan keamanan selama 20 tahun, jauh sebelum saya terjun ke sini.
00:08:47Dan AI yang kita buat saat ini
00:08:50melakukan semua perilaku menyimpang
00:08:52yang diprediksi orang-orang akan mereka lakukan.
00:08:54Dan kita tidak berada di jalur untuk memperbaikinya.
00:08:56Saat ini ada kesenjangan 2000 banding satu,
00:08:59estimasi dari Stuart Russell yang menulis buku teks tentang AI.
00:09:01- Dia pernah ada di acara ini.
00:09:02- Anda sudah pernah mengundangnya, oke.
00:09:03Ada kesenjangan 2000 banding satu antara jumlah uang
00:09:05yang mengalir untuk membuat AI lebih kuat
00:09:07daripada jumlah uang untuk membuat AI terkendali,
00:09:10selaras, atau aman.
00:09:12Sepertinya statistiknya seperti—
00:09:13- Kemajuan versus keamanan.
00:09:14- Kemajuan versus keamanan, seperti kekuatan versus keamanan.
00:09:16Jadi seperti saya ingin membuat AI yang super kuat
00:09:18sehingga ia bisa melakukan jauh lebih banyak hal
00:09:20versus saya ingin bisa mengendalikan apa yang AI lakukan.
00:09:21- Dan memastikan ia melakukan hal yang memang saya maksudkan.
00:09:23- Tepat sekali, jadi ini seperti mengatakan
00:09:25apa yang terjadi saat Anda memacu mobil 2000 kali lipat lebih cepat
00:09:28tapi Anda tidak memegang kemudi?
00:09:29Sudah jelas, Anda akan mengalami kecelakaan.
00:09:34Ini benar-benar bukan hal yang rumit.
00:09:36Kami tidak mengadvokasi pelarangan teknologi atau AI,
00:09:39kami mengadvokasi pengendalian, setir, dan rem.
00:09:43Anda harus memilikinya.
00:09:44Saya rasa ada kesalahan dalam pola pikir perlombaan senjata
00:09:47bahwa seolah-olah jika Anda mengalahkan seseorang dalam teknologi
00:09:49itu berarti Anda memenangkan dunia.
00:09:51Nah, AS mengalahkan Tiongkok dalam teknologi media sosial.
00:09:55Apakah itu membuat kita lebih kuat atau lebih lemah?
00:09:58Jika Anda mengalahkan lawan dalam sebuah teknologi
00:10:00yang kemudian Anda kelola dengan buruk,
00:10:01Anda membalikkan bazoka dan menembak otak sendiri
00:10:04karena Anda merusak otak Anda sendiri,
00:10:05Anda merusak seluruh populasi Anda,
00:10:06Anda menciptakan krisis kesepian,
00:10:08generasi paling cemas dan depresi dalam sejarah,
00:10:10baca buku Jonathan Haidt, "The Anxious Generation",
00:10:12Anda merusak realitas bersama, tidak ada yang saling percaya,
00:10:15semua orang saling menyerang,
00:10:16Anda memaksimalkan ekonomi kemarahan dan persaingan.
00:10:19Anda mengalahkan Cina dalam teknologi yang Anda kelola dengan cara
00:10:22yang benar-benar merusak kesehatan dan kekuatan masyarakat Anda.
00:10:24- Itu adalah kemenangan Pyrrhic.
00:10:25- Itu kemenangan Pyrrhic, tepat sekali, setuju.
00:10:28- Sebelum kita lanjut, kebanyakan orang di usia 30-an
00:10:30masih berlatih keras, asupan protein mereka terjaga,
00:10:32mereka tidur lebih nyenyak daripada saat usia 20-an.
00:10:34Disiplin bukanlah masalahnya,
00:10:36tapi pemulihan terasa agak berbeda.
00:10:39Peningkatan kekuatan butuh waktu sedikit lebih lama,
00:10:41batas untuk melakukan kesalahan mulai menyempit.
00:10:43Dan itulah mengapa saya sangat menyukai Timeline.
00:10:46Anda tahu, mitokondria adalah penghasil energi
00:10:49di dalam sel-sel otot Anda.
00:10:50Seiring melemahnya mereka karena usia, kemampuan Anda untuk menghasilkan tenaga
00:10:53dan pulih secara efektif akan berubah,
00:10:55bahkan jika kebiasaan Anda tetap kuat.
00:10:57Mitopure dari Timeline mengandung
00:10:59satu-satunya bentuk urolithin A yang tervalidasi secara klinis
00:11:02yang digunakan dalam uji coba pada manusia.
00:11:03Ini mendorong mitofagi, yang merupakan proses alami tubuh Anda
00:11:06untuk membersihkan mitokondria yang rusak
00:11:08dan memperbarui yang sehat.
00:11:09Dalam penelitian, hal ini mendukung fungsi mitokondria
00:11:12dan kekuatan otot pada orang dewasa lanjut usia.
00:11:14Ini bukan tentang berlatih lebih keras,
00:11:15ini tentang benar-benar mendukung mekanisme seluler
00:11:18yang mendasari pelatihan Anda.
00:11:19Jika Anda peduli untuk tetap kuat
00:11:21hingga usia 30-an, 40-an, 50-an dan seterusnya, ini sangat mendasar.
00:11:25Yang terbaik dari semuanya, ada jaminan uang kembali 30 hari
00:11:27ditambah pengiriman gratis di AS dan mereka mengirim secara internasional.
00:11:30Dan saat ini, Anda bisa mendapatkan diskon hingga 20%
00:11:32dengan mengeklik tautan di deskripsi di bawah
00:11:34atau mengunjungi [timeline.com/modernwisdom](https://www.google.com/search?q=https://timeline.com/modernwisdom)
00:11:36dan menggunakan kode modernwisdom saat pembayaran.
00:11:38Sekali lagi, [timeline.com/modernwisdom](https://www.google.com/search?q=https://timeline.com/modernwisdom)
00:11:40dan kode modernwisdom saat pembayaran.