- Vitalik Buterin menyarankan untuk membatasi daya komputasi global untuk memperlambat kecerdasan buatan yang berisiko.
- Perjanjian ini mengusulkan pemberian lisensi mingguan terhadap perangkat AI oleh badan-badan global.
Vitalik Buterin, salah satu pendiri EthereumMenyarankan strategi potensial untuk mengatasi risiko yang terkait dengan kecerdasan buatan (AI) yang super cerdas. Dalam postingan blog tertanggal 5 Januari, Buterin mengusulkan pembatasan daya komputasi global hingga dua tahun sebagai langkah terakhir untuk memperlambat pengembangan sistem AI yang berpotensi berbahaya.
“Jeda” daya komputasi
Proposal Buterin melibatkan pembatasan sementara perangkat keras komputasi skala industri untuk mengurangi sumber daya komputasi yang tersedia hingga 99%. Langkah ini dimaksudkan untuk memberikan waktu tambahan bagi umat manusia untuk bersiap menghadapi potensi munculnya sistem AI super cerdas yang jauh lebih maju daripada manusia paling cerdas di semua bidang.
-Advertisement-.
Menurut Buterin, jeda seperti itu bisa menjadi pengaman jika sudah jelas Amnesti Internasional Risikonya terlalu besar untuk dikelola melalui kerangka peraturan tradisional. Namun, dia menekankan bahwa pendekatan ini hanya akan dipertimbangkan jika langkah-langkah lain, seperti aturan pertanggungjawaban yang membuat pengembang AI bertanggung jawab atas kerugian, terbukti tidak cukup.
Mengatasi risiko AI melalui akselerasi defensif
Rekomendasi Buterin konsisten dengan konsepnya yang lebih luas yaitu “percepatan defensif” (d/acc), yang menyerukan kemajuan teknologi yang hati-hati dan strategis. Pendekatan ini kontras dengan “percepatan efisien” (e/acc), yang mendukung kemajuan teknologi yang cepat dan tidak terkendali.
Dalam postingan terbarunya, Buterin memperluas pengenalannya terhadap d/acc pada bulan November 2023 dengan menawarkan ide-ide konkret untuk skenario di mana AI menimbulkan risiko yang signifikan. Di antara usulannya adalah penerapan sistem pemantauan perangkat kecerdasan buatan pada skala industri.
Salah satu metode yang diusulkan melibatkan mengharuskan chip AI untuk mendaftar ke badan internasional. Buterin juga mengidentifikasi mekanisme potensial untuk memastikan kepatuhan, seperti melengkapi perangkat dengan chip yang memerlukan izin mingguan dari organisasi global. Proses ini dapat memanfaatkan teknologi blockchain untuk transparansi dan keamanan yang lebih baik.
Diskusi mengenai risiko kecerdasan buatan semakin meningkat akhir-akhir ini, dengan banyak peneliti dan pemimpin industri yang mengungkapkan kekhawatiran mengenai potensi teknologi tersebut membahayakan umat manusia. Pada bulan Maret 2023, lebih dari 2.600 ahli menandatangani surat terbuka yang mendesak penghentian sementara pengembangan kecerdasan buatan untuk mengatasi apa yang mereka gambarkan sebagai “risiko besar bagi masyarakat.”
Buterin mengakui kekhawatiran ini, dan menunjuk pada ketidakpastian seputar hasil super-AI. Dia mengatakan langkah-langkah proaktif, termasuk mematikan sementara daya komputasi, dapat menjadi langkah penting untuk memastikan bahwa AI berkembang dengan cara yang bermanfaat bagi umat manusia.
Pendekatan preventif oleh Buterin
Meskipun usulan Buterin telah memicu diskusi, dia tetap berhati-hati dalam mendukung tindakan tegas. Dia menekankan bahwa “jeda lunak” hanya akan dilakukan jika risiko tidak adanya tindakan lebih besar daripada kerugian penerapan pembatasan tersebut.
Seiring dengan pesatnya perkembangan kecerdasan buatan, gagasan Buterin berkontribusi pada diskusi yang lebih luas tentang keseimbangan inovasi dan keselamatan. Sarannya menggarisbawahi pentingnya mempersiapkan skenario di mana sistem AI yang canggih dapat menimbulkan ancaman nyata.
Buterin bertujuan untuk mengatasi tantangan pengembangan AI dengan mempromosikan pendekatan kolaboratif yang bijaksana tanpa sepenuhnya menghambat kemajuan teknologi. Masih harus dilihat apakah usulannya akan diterima, tetapi usulan tersebut menyoroti semakin mendesaknya mengatasi masalah etika dan keselamatan seputar kecerdasan buatan.