“Apa batasan AI yang seharusnya ada?”

Sam Altman termasuk salah satu pendukung yang paling vokal dari kecerdasan buatan, tetapi juga memimpin seruan untuk mengaturnya. Dia menguraikan visinya tentang masa depan yang sangat tidak pasti.

Ketika saya bertemu dengan Sam Altman, CEO laboratorium penelitian AI OpenAI, ia sedang melakukan tur dunia. Dia sedang memberikan ceramah bahwa sistem AI yang dibangun olehnya dan pesaingnya dapat menimbulkan risiko eksistensial bagi masa depan umat manusia – kecuali pemerintah bekerja sama sekarang untuk menetapkan panduan, memastikan pengembangan yang bertanggung jawab dalam dekade mendatang.
Dalam beberapa hari berikutnya, ia dan ratusan pemimpin teknologi, termasuk ilmuwan dan “bapak AI” Geoffrey Hinton dan Yoshua Bengio, serta CEO DeepMind Google, Demis Hassabis, mengeluarkan pernyataan yang mengatakan bahwa “mengurangi risiko kepunahan dari AI harus menjadi prioritas global bersama dengan risiko skala sosial lainnya seperti pandemi dan perang nuklir”. Ini adalah upaya serius untuk meyakinkan pemimpin dunia bahwa mereka serius ketika mengatakan bahwa “risiko AI” membutuhkan upaya internasional yang berkoordinasi.

Ini harus menjadi posisi yang menarik – Altman, 38 tahun, adalah ayah dari chatbot AI ChatGPT, dan memimpin upaya untuk menciptakan “kecerdasan umum buatan”, atau AGI, sistem AI yang mampu menangani tugas apa pun yang dapat dicapai oleh manusia. Di mana “AI” digunakan untuk menggambarkan sesuatu yang lebih kompleks dari Tamagotchi, AGI adalah hal nyata: kecerdasan tingkat manusia dari cerita seperti Her, Star Trek, Terminator, 2001: A Space Odyssey, dan Battlestar Galactica.

Dalam tur dunianya, yang semakin mempersulit posisinya, Altman juga menyampaikan sesuatu selain bahaya dari perkembangan AI yang tidak terkendali. Dia berpendapat bahwa manfaat dari pengembangan “superintelejensi” – AGI yang ditingkatkan menjadi level 11, mampu menyelesaikan masalah yang belum dapat dipecahkan oleh manusia – sangat besar sehingga kita harus mempertaruhkan segalanya untuk mencobanya.
Ini adalah beberapa minggu yang melelahkan. Pada hari saya bertemu dengannya, ia bangun di Paris setelah bertemu dengan Emmanuel Macron malam sebelumnya. Setelah perjalanan dengan Eurostar ke London dan melompat ke Oxford, ia memberikan pidato kepada Oxford Guild, sebuah masyarakat pelajar yang berfokus pada bisnis, sebelum beberapa pertemuan lagi, lalu ke Nomor 10 untuk duduk bersama Rishi Sunak. Kemudian ia naik pesawat ke Warsawa sebelum menuju Munich keesokan paginya. Tim PR-nya bergantian masuk dan keluar, tetapi Altman sendiri berada dalam perjalanan selama lima minggu.
“Saya suka San Francisco dan Bay Area,” katanya di atas panggung pada acara Oxford. “Tapi itu tempat yang aneh, dan itu adalah ruang gema yang cukup besar. Kami mengatur perjalanan ini untuk mulai menjawab pertanyaan ini, dengan pemimpin di tempat-tempat yang berbeda, tentang batas sistem ini harus seperti apa, untuk memutuskan bagaimana manfaatnya harus dibagi. Dan ada perspektif yang sangat berbeda antara sebagian besar dunia dan San Francisco.”
Untuk kekesalan timnya, mendengarkan sebanyak mungkin sudut pandang jelas menjadi prioritas daripada rencana hari itu. Setelah acara di UCL, ia jalan-jalan ke tengah penonton – percakapan santai yang mengarah pada berita di Time dan FT. Ketika ia hampir duduk dan mulai berbicara dengan saya, ia keluar untuk berbicara dengan sekelompok kecil pengunjuk rasa yang memegang spanduk yang menyerukan OpenAI untuk “menghentikan perlombaan bunuh diri AGI”.
“Hentikan mencoba membangun AGI dan mulai mencoba memastikan bahwa sistem AI bisa aman,” kata salah satu pengunjuk rasa, seorang mahasiswa Universitas Oxford bernama Gideon Futerman. “Jika kita, dan saya pikir Anda juga, berpikir bahwa sistem AGI bisa sangat berbahaya, saya tidak mengerti mengapa kita harus mengambil risiko.”
Altman, pendiri klasik seperti Mark Zuckerberg – dia keluar dari Universitas Stanford di tahun ketiganya untuk meluncurkan jaringan sosial bernama Loopt – tampak dalam mode politisi penuh saat mencoba menemukan titik tengah. “Saya pikir perlombaan menuju AGI adalah hal buruk,” kata Altman, “dan saya pikir tidak membuat kemajuan keselamatan adalah hal buruk.” Namun, katanya kepada pengunjuk rasa itu, satu-satunya cara untuk mendapatkan keselamatan adalah dengan “kemajuan kemampuan” – membangun sistem AI yang lebih kuat, semakin baik untuk mendorong mereka dan memahami bagaimana mereka bekerja.

Altman meninggalkan Futerman tidak yakin, tetapi saat kami kembali, dia optimis tentang konfrontasi tersebut. “Baik untuk memiliki percakapan seperti ini,” katanya. “Satu hal yang telah saya bicarakan banyak dalam perjalanan ini adalah seperti apa kerangka regulasi global untuk superintelejensi.” Sehari sebelum kami bertemu, Altman dan rekan-rekannya menerbitkan catatan yang menguraikan visi mereka untuk regulasi tersebut: badan internasional yang didasarkan pada Badan Tenaga Atom Internasional, untuk mengkoordinasikan antara laboratorium penelitian, menetapkan standar keselamatan, melacak daya komputasi yang dipersembahkan untuk melatih sistem, dan pada akhirnya bahkan membatasi beberapa pendekatan secara keseluruhan.

Dia terkejut dengan responsnya. “Ada banyak minat untuk mengetahui lebih banyak; lebih dari yang saya harapkan, dari politisi dan regulator senior, tentang seperti apa itu. Saya yakin kita akan membicarakan banyak hal dekat jangka, juga.”

Namun, perbedaan antara dekat dan jangka panjang itu telah membuat Altman mendapat banyak kritik dalam tur ini. Ini adalah kepentingan OpenAI, setelah semua, untuk memusatkan perhatian regulasi pada risiko eksistensial jika itu mengalihkan pemerintah dari menangani potensi bahaya produk perusahaan yang sudah mampu menyebabkan kerusakan. Perusahaan tersebut sudah berseteru dengan Italia terkait perlindungan data ChatGPT, sementara Altman memulai perjalanannya dengan mengunjungi Washington DC untuk menghabiskan beberapa jam dihujani senator AS atas segala sesuatu mulai dari informasi yang salah hingga pelanggaran hak cipta.

“Lucu,” kata Altman, “orang yang sama akan menuduh kami tidak peduli tentang hal-hal jangka pendek, dan juga mencoba untuk meregulasi tangkapan” – gagasan bahwa jika peraturan yang membebani diberlakukan, hanya OpenAI dan beberapa pemimpin pasar lainnya yang akan memiliki sumber daya untuk mematuhinya. “Saya pikir semuanya penting. Ada skala waktu yang berbeda, tetapi kita harus mengatasi setiap tantangan ini.” Dia menyebutkan beberapa kekhawatiran: “Ada yang sangat serius yang akan datang, saya pikir, disinformasi canggih; yang lain sedikit setelah itu, mungkin tentang keamanan siber. Ini sangat penting, tetapi misi khusus kami adalah tentang AGI. Dan saya pikir sangat wajar bahwa kita membicarakannya lebih banyak, meskipun kita juga bekerja pada hal-hal lain. “
Dia agak tersinggung ketika saya menyarankan bahwa motivasi perusahaan mungkin didorong oleh keuntungan. “Kami tidak perlu memenangkan segalanya. Kami adalah perusahaan yang tidak biasa: kami ingin mendorong revolusi ini ke dunia, mencari tahu cara membuatnya aman dan sangat bermanfaat. Tetapi saya tidak berpikir tentang hal-hal dengan cara yang sama seperti Anda berpikir tentang topik-topik ini.”
OpenAI memang tidak biasa. Organisasi ini didirikan pada tahun 2015 sebagai nirlaba dengan dana hibah sebesar $1 miliar dari pendukung termasuk Elon Musk, pendiri PayPal Peter Thiel dan pendiri LinkedIn Reid Hoffman. Awalnya, Altman bertindak sebagai co-chair bersama Musk, dengan tujuan “untuk memajukan kecerdasan digital dengan cara yang paling mungkin menguntungkan umat manusia secara keseluruhan, tidak terikat oleh kebutuhan untuk menghasilkan pengembalian keuangan”. Tetapi itu berubah pada tahun 2019, ketika organisasi tersebut membentuk kembali dirinya sendiri sekitar model “keuntungan terbatas”. Altman menjadi CEO, dan organisasi mulai mengambil investasi eksternal, dengan syarat bahwa tidak ada investor yang dapat menghasilkan lebih dari 100 kali investasi awal mereka.

Rasionalnya sederhana: bekerja pada ujung tombak penelitian AI jauh lebih mahal daripada yang awalnya terlihat. “Tidak ada cara untuk tetap berada di ujung tombak penelitian AI, apalagi membangun AGI, tanpa kita meningkatkan investasi komputasi secara besar-besaran,” kata ilmuwan kepala OpenAI Ilya Sutskever saat itu. Altman, yang sudah kaya secara mandiri – ia menghasilkan kekayaannya pertama dengan Loopt, dan yang kedua sebagai presiden akselerator startup Y Combinator – tidak mengambil ekuitas apa pun di perusahaan baru itu. Jika AI akhirnya mengubah dunia, dia tidak akan mendapat manfaat lebih dari kita semua.
Itu penting, katanya, karena meskipun Altman yakin bahwa lengkung melengkung menuju pengubahan akan secara luas positif, di mana dia kurang yakin siapa yang menang. “Saya tidak ingin mengatakan saya yakin. S

aya yakin itu akan meningkatkan standar hidup untuk semua orang, dan, jujur saja, jika pilihannya adalah meningkatkan standar hidup untuk semua orang tetapi menjaga ketimpangan, saya masih akan memilih itu. Dan saya pikir kita mungkin dapat setuju bahwa jika [AGI aman] dibangun, itu bisa dilakukan. Tapi mungkin menjadi kekuatan pengimbang yang sangat serupa. Beberapa teknologi ada dan beberapa tidak, dan beberapa melakukan keduanya dengan cara yang berbeda. Tapi saya pikir Anda dapat melihat sekelompok cara, di mana, jika semua orang di Bumi mendapat pendidikan yang lebih baik, perawatan kesehatan yang lebih baik, kehidupan yang tidak mungkin karena harga saat ini tenaga kerja kognitif – itu adalah kekuatan pengimbang dengan cara yang dapat bermanfaat.”

Namun, dia masih merasa ragu-ragu. Altman juga menjadi pendukung vokal berbagai bentuk pendapatan dasar universal, dengan berargumen bahwa semakin penting untuk menentukan bagaimana membagi keuntungan kemajuan AI secara adil melalui periode ketidakstabilan jangka pendek. Itulah yang menjadi fokus proyek sampingannya, sebuah startup kripto bernama Worldcoin, yang bertujuan untuk memindai iris setiap orang di Bumi untuk membangun pendapatan dasar universal berbasis kriptocurrency. Namun, itu bukan satu-satunya pendekatannya. “Mungkin mungkin bahwa komponen terpenting dari kekayaan di masa depan adalah akses ke sistem-sistem ini – dalam hal ini, Anda dapat memikirkan tentang mendistribusikan itu sendiri.”
Pada akhirnya, semuanya kembali pada tujuan menciptakan dunia di mana superintelejensi bekerja untuk kita, bukan melawan kita. Pada awalnya, visi masa depan Altman adalah apa yang kita kenal dari fiksi ilmiah. “Cara saya dulu berpikir tentang menuju ke superintelejensi adalah kita akan membangun sistem yang sangat mampu ini. Ada banyak tantangan keselamatan dengan itu, dan itu adalah dunia yang akan terasa sangat tidak stabil.” Jika OpenAI mengaktifkan versi terbarunya dari ChatGPT dan menemukan bahwa ia lebih pintar dari seluruh umat manusia yang digabungkan, maka mudah untuk mulai menggambar serangkaian hasil yang cukup nihilistik: siapa pun yang berhasil merebut kendali sistem dapat menggunakannya untuk merebut kendali dunia, dan sulit untuk digulingkan oleh siapa pun selain sistem itu sendiri.
Namun sekarang, Altman melihat suatu jalur yang lebih stabil muncul: “Sekarang kami melihat jalur di mana kami membangun alat-alat ini yang semakin kuat. Dan, ada miliaran atau triliunan salinan yang digunakan di dunia, membantu individu menjadi jauh lebih efektif, mampu melakukan jauh lebih banyak. Jumlah output yang dapat dihasilkan oleh satu orang dapat meningkat secara dramatis, dan di mana superintelejensi muncul bukan hanya kemampuan jaringan syaraf terbesar kami, tetapi juga semua ilmu baru yang kami temukan, semua hal baru yang kami ciptakan.
“Bukan berarti tidak dapat dihentikan,” katanya. Jika pemerintah di seluruh dunia memutuskan untuk bertindak bersama untuk membatasi pengembangan AI, seperti yang mereka lakukan dalam bidang lain, seperti kloning manusia atau penelitian senjata biologi, mereka mungkin bisa melakukannya. Tetapi itu akan berarti menyerah pada semua yang mungkin. “Saya pikir ini akan menjadi lompatan terbesar dalam kualitas hidup bagi orang-orang yang pernah kita miliki, dan saya pikir itu somehow gets lost from the discussion.”


Posted

in

by

Tags:

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *