Elon Musk, Steve Wozniak, dan 1.000+ Pakar Mendesak Penghentian Sementara Pengembangan AI yang Berpotensi Berbahaya
Elon Musk, Steve Wozniak, dan lebih dari 1.000 pakar telah menulis surat terbuka, mendesak penghentian sementara pengembangan teknologi AI yang lebih kuat daripada GPT-4 OpenAI, mengungkapkan kekhawatiran tentang risikonya yang besar terhadap masyarakat dan kemanusiaan.

Lebih dari 1.000 tokoh terkemuka termasuk Elon Musk dan Steve Wozniak telah menyatakan keprihatinan atas perkembangan teknologi kecerdasan buatan (AI) yang tak terkendali. Sebagai tanggapan, mereka telah bergabung untuk merilis surat terbuka yang mengadvokasi jeda enam bulan dalam pengembangan sistem AI yang lebih maju daripada GPT-4 OpenAI, dengan alasan ancaman signifikan yang mereka timbulkan terhadap masyarakat dan umat manusia.
Ditujukan kepada para pengembang AI, surat sepanjang 600 kata ini memperingatkan keadaan saat ini di dalam laboratorium AI, yang tampaknya terus berupaya untuk menciptakan pikiran digital yang semakin kuat. Perkembangan ini telah mencapai tahap di mana bahkan penciptanya tidak dapat memahami, memprediksi, atau mengelolanya, yang semakin meningkatkan potensi risiko yang terlibat.
Patut dicatat bahwa Musk awalnya adalah salah satu pendiri OpenAI, yang dimulai sebagai organisasi nirlaba yang didedikasikan untuk memastikan AI bermanfaat bagi umat manusia. Namun, dia mengundurkan diri dari dewan perusahaan pada tahun 2018. Saat ini, OpenAI beroperasi sebagai entitas nirlaba, dengan kritik yang menyatakan bahwa tujuannya telah menyimpang dari misi awal mereka. Kemitraan yang mengakar dengan Microsoft, yang melibatkan investasi miliaran dolar, tampaknya telah mendorong OpenAI untuk melakukan inisiatif yang lebih berisiko.
Menanyakan secara terbuka metamorfosis OpenAI, kekhawatiran Musk digaungkan oleh Mozilla, yang baru-baru ini mengungkapkan startup barunya, Mozilla.ai. Diatur untuk mengatasi beberapa masalah yang paling mendesak dengan pengembangan teknologi AI, inisiatif ini bertujuan untuk menciptakan ekosistem AI open-source yang otonom.
Menurut surat terbuka tersebut, penghentian enam bulan yang diusulkan harus melibatkan laboratorium AI dan pakar independen yang bekerja sama dalam mengembangkan serangkaian protokol keselamatan bersama untuk desain dan pengembangan AI tingkat lanjut. Protokol-protokol ini akan tunduk pada audit yang ketat dan pengawasan oleh ahli independen eksternal.
Sementara itu, dalam perkembangan terpisah, Pemerintah Inggris telah meluncurkan whitepaper yang menyoroti pendekatan 'pro-inovasi' terhadap regulasi AI. Kerangka kerja ini mengusulkan langkah-langkah untuk meningkatkan keselamatan dan akuntabilitas, meskipun tidak membentuk regulator AI khusus, seperti yang dipilih oleh Uni Eropa (UE).
Tim Wright, Mitra dan spesialis regulasi AI di firma hukum Fladgate, membagikan pemikirannya tentang whitepaper Inggris, menekankan bahwa hanya perjalanan waktu yang akan mengungkap kemanjuran pendekatan sektor demi sektor. Terlepas dari itu, sikap ini sangat kontras dengan strategi UE dalam menerapkan buku peraturan terperinci dan rezim pertanggungjawaban di bawah pengawasan regulator AI tunggal.
Pada saat penulisan, surat terbuka yang menyerukan batas waktu pengembangan AI yang berpotensi berbahaya telah mengumpulkan 1.123 tanda tangan. Daya tarik yang berkembang dari platform low-code dan no-code seperti AppMaster dalam mengurangi ketakutan di antara para pendukung AI tidak dapat lagi diabaikan. , karena memungkinkan bisnis dan individu untuk memanfaatkan manfaat teknologi tanpa kekhawatiran terkait dengan kemajuan AI yang tidak terkendali.


