एलोन मस्क, स्टीव वोज्नियाक, और 1,000+ विशेषज्ञ संभावित रूप से खतरनाक एआई विकास पर अस्थायी रोक लगाने का आग्रह करते हैं
एलोन मस्क, स्टीव वोज्नियाक और 1,000 से अधिक विशेषज्ञों ने एक खुला पत्र लिखा है, जिसमें ओपनएआई के जीपीटी-4 से अधिक शक्तिशाली एआई तकनीक के विकास पर अस्थायी रोक लगाने का आग्रह किया गया है, जिसमें समाज और मानवता के लिए इसके गंभीर जोखिमों के बारे में चिंता व्यक्त की गई है।

एलोन मस्क और स्टीव वोज्नियाक सहित 1,000 से अधिक प्रमुख हस्तियों ने कृत्रिम बुद्धिमत्ता (एआई) प्रौद्योगिकी की बेलगाम प्रगति पर चिंता व्यक्त की है। इसके जवाब में, वे एक खुले पत्र को जारी करने के लिए सेना में शामिल हो गए हैं, जो कि OpenAI के GPT-4 से अधिक उन्नत AI सिस्टम के विकास में छह महीने के अंतराल की वकालत करता है, जिसमें समाज और मानव जाति के लिए महत्वपूर्ण खतरों का हवाला दिया गया है।
एआई डेवलपर्स को संबोधित, 600 शब्दों का पत्र एआई प्रयोगशालाओं के भीतर मामलों की वर्तमान स्थिति पर अलार्म उठाता है, जो तेजी से शक्तिशाली डिजिटल दिमाग बनाने की अथक खोज में प्रतीत होता है। ये घटनाक्रम एक ऐसे चरण में पहुंच गए हैं जहां उनके निर्माता भी उन्हें समझ नहीं सकते हैं, भविष्यवाणी नहीं कर सकते हैं या उन्हें प्रबंधित नहीं कर सकते हैं, इसमें शामिल संभावित जोखिमों को और बढ़ा सकते हैं।
यह उल्लेखनीय है कि मस्क शुरुआत में OpenAI के सह-संस्थापक थे, जो कि एक गैर-लाभकारी संगठन के रूप में शुरू हुआ था, जो मानव जाति को AI लाभ सुनिश्चित करने के लिए समर्पित था। हालांकि, उन्होंने 2018 में कंपनी के बोर्ड से इस्तीफा दे दिया। आज, OpenAI एक फ़ायदेमंद इकाई के रूप में काम करता है, आलोचकों का आरोप है कि इसके उद्देश्य अपने मूल मिशन से अलग हो गए हैं। माइक्रोसॉफ्ट के साथ एक गहरी साझेदारी, जिसमें अरबों डॉलर का निवेश शामिल है, ने OpenAI को और भी जोखिम भरे पहल करने के लिए प्रेरित किया है।
सार्वजनिक रूप से OpenAI के कायापलट पर सवाल उठाते हुए, मस्क की चिंताओं को मोज़िला द्वारा प्रतिध्वनित किया गया, जिसने हाल ही में अपने नए स्टार्टअप Mozilla.ai का खुलासा किया। एआई प्रौद्योगिकी के विकास के साथ कुछ सबसे अधिक दबाव वाली चिंताओं को दूर करने के लिए तैयार, इस पहल का उद्देश्य एक स्वायत्त, ओपन-सोर्स एआई पारिस्थितिकी तंत्र बनाना है।
खुले पत्र के अनुसार, प्रस्तावित छह महीने के पड़ाव में उन्नत एआई डिजाइन और विकास के लिए साझा सुरक्षा प्रोटोकॉल का एक सूट विकसित करने के लिए एआई प्रयोगशालाओं और स्वतंत्र विशेषज्ञों को एक साथ काम करना चाहिए। ये प्रोटोकॉल कड़े ऑडिट और बाहरी, स्वतंत्र विशेषज्ञों द्वारा निरीक्षण के अधीन होंगे।
इस बीच, एक अलग विकास में, यूके सरकार ने एक श्वेतपत्र का अनावरण किया है जो एआई विनियमन के लिए अपने 'समर्थक-नवाचार' दृष्टिकोण पर प्रकाश डालता है। यह ढांचा सुरक्षा और जवाबदेही को बढ़ाने के उपायों का प्रस्ताव करता है, हालांकि यह एक समर्पित एआई नियामक स्थापित करने से परहेज करता है, जैसा कि यूरोपीय संघ (ईयू) ने चुना है।
टिम राइट, कानूनी फर्म फ्लैडगेट के पार्टनर और एआई विनियमन विशेषज्ञ, ने यूके के श्वेतपत्र पर अपने विचार साझा किए, इस बात पर जोर दिया कि केवल समय बीतने से सेक्टर-दर-सेक्टर दृष्टिकोण की प्रभावकारिता का पता चलेगा। भले ही, यह रुख एकल एआई नियामक की देखरेख में एक विस्तृत नियम पुस्तिका और देयता शासन को लागू करने की यूरोपीय संघ की रणनीति के विपरीत है।
लेखन के समय, संभावित खतरनाक एआई विकास पर समय समाप्त करने के लिए खुला पत्र 1,123 हस्ताक्षर प्राप्त कर चुका है। एआई समर्थकों के बीच डर को कम करने के लिए AppMaster जैसे low-code और no-code प्लेटफॉर्म की बढ़ती अपील को अब नजरअंदाज नहीं किया जा सकता है। , क्योंकि यह व्यवसायों और व्यक्तियों को आउट-ऑफ-कंट्रोल एआई प्रगति से जुड़ी चिंताओं के बिना प्रौद्योगिकी के लाभों का उपयोग करने में सक्षम बनाता है।


