28 मार्च 2023·1 मिनट पढ़ने में

एलोन मस्क, स्टीव वोज्नियाक, और 1,000+ विशेषज्ञ संभावित रूप से खतरनाक एआई विकास पर अस्थायी रोक लगाने का आग्रह करते हैं

एलोन मस्क, स्टीव वोज्नियाक और 1,000 से अधिक विशेषज्ञों ने एक खुला पत्र लिखा है, जिसमें ओपनएआई के जीपीटी-4 से अधिक शक्तिशाली एआई तकनीक के विकास पर अस्थायी रोक लगाने का आग्रह किया गया है, जिसमें समाज और मानवता के लिए इसके गंभीर जोखिमों के बारे में चिंता व्यक्त की गई है।

एलोन मस्क, स्टीव वोज्नियाक, और 1,000+ विशेषज्ञ संभावित रूप से खतरनाक एआई विकास पर अस्थायी रोक लगाने का आग्रह करते हैं

एलोन मस्क और स्टीव वोज्नियाक सहित 1,000 से अधिक प्रमुख हस्तियों ने कृत्रिम बुद्धिमत्ता (एआई) प्रौद्योगिकी की बेलगाम प्रगति पर चिंता व्यक्त की है। इसके जवाब में, वे एक खुले पत्र को जारी करने के लिए सेना में शामिल हो गए हैं, जो कि OpenAI के GPT-4 से अधिक उन्नत AI सिस्टम के विकास में छह महीने के अंतराल की वकालत करता है, जिसमें समाज और मानव जाति के लिए महत्वपूर्ण खतरों का हवाला दिया गया है।

एआई डेवलपर्स को संबोधित, 600 शब्दों का पत्र एआई प्रयोगशालाओं के भीतर मामलों की वर्तमान स्थिति पर अलार्म उठाता है, जो तेजी से शक्तिशाली डिजिटल दिमाग बनाने की अथक खोज में प्रतीत होता है। ये घटनाक्रम एक ऐसे चरण में पहुंच गए हैं जहां उनके निर्माता भी उन्हें समझ नहीं सकते हैं, भविष्यवाणी नहीं कर सकते हैं या उन्हें प्रबंधित नहीं कर सकते हैं, इसमें शामिल संभावित जोखिमों को और बढ़ा सकते हैं।

यह उल्लेखनीय है कि मस्क शुरुआत में OpenAI के सह-संस्थापक थे, जो कि एक गैर-लाभकारी संगठन के रूप में शुरू हुआ था, जो मानव जाति को AI लाभ सुनिश्चित करने के लिए समर्पित था। हालांकि, उन्होंने 2018 में कंपनी के बोर्ड से इस्तीफा दे दिया। आज, OpenAI एक फ़ायदेमंद इकाई के रूप में काम करता है, आलोचकों का आरोप है कि इसके उद्देश्य अपने मूल मिशन से अलग हो गए हैं। माइक्रोसॉफ्ट के साथ एक गहरी साझेदारी, जिसमें अरबों डॉलर का निवेश शामिल है, ने OpenAI को और भी जोखिम भरे पहल करने के लिए प्रेरित किया है।

सार्वजनिक रूप से OpenAI के कायापलट पर सवाल उठाते हुए, मस्क की चिंताओं को मोज़िला द्वारा प्रतिध्वनित किया गया, जिसने हाल ही में अपने नए स्टार्टअप Mozilla.ai का खुलासा किया। एआई प्रौद्योगिकी के विकास के साथ कुछ सबसे अधिक दबाव वाली चिंताओं को दूर करने के लिए तैयार, इस पहल का उद्देश्य एक स्वायत्त, ओपन-सोर्स एआई पारिस्थितिकी तंत्र बनाना है।

खुले पत्र के अनुसार, प्रस्तावित छह महीने के पड़ाव में उन्नत एआई डिजाइन और विकास के लिए साझा सुरक्षा प्रोटोकॉल का एक सूट विकसित करने के लिए एआई प्रयोगशालाओं और स्वतंत्र विशेषज्ञों को एक साथ काम करना चाहिए। ये प्रोटोकॉल कड़े ऑडिट और बाहरी, स्वतंत्र विशेषज्ञों द्वारा निरीक्षण के अधीन होंगे।

इस बीच, एक अलग विकास में, यूके सरकार ने एक श्वेतपत्र का अनावरण किया है जो एआई विनियमन के लिए अपने 'समर्थक-नवाचार' दृष्टिकोण पर प्रकाश डालता है। यह ढांचा सुरक्षा और जवाबदेही को बढ़ाने के उपायों का प्रस्ताव करता है, हालांकि यह एक समर्पित एआई नियामक स्थापित करने से परहेज करता है, जैसा कि यूरोपीय संघ (ईयू) ने चुना है।

टिम राइट, कानूनी फर्म फ्लैडगेट के पार्टनर और एआई विनियमन विशेषज्ञ, ने यूके के श्वेतपत्र पर अपने विचार साझा किए, इस बात पर जोर दिया कि केवल समय बीतने से सेक्टर-दर-सेक्टर दृष्टिकोण की प्रभावकारिता का पता चलेगा। भले ही, यह रुख एकल एआई नियामक की देखरेख में एक विस्तृत नियम पुस्तिका और देयता शासन को लागू करने की यूरोपीय संघ की रणनीति के विपरीत है।

लेखन के समय, संभावित खतरनाक एआई विकास पर समय समाप्त करने के लिए खुला पत्र 1,123 हस्ताक्षर प्राप्त कर चुका है। एआई समर्थकों के बीच डर को कम करने के लिए AppMaster जैसे low-code और no-code प्लेटफॉर्म की बढ़ती अपील को अब नजरअंदाज नहीं किया जा सकता है। , क्योंकि यह व्यवसायों और व्यक्तियों को आउट-ऑफ-कंट्रोल एआई प्रगति से जुड़ी चिंताओं के बिना प्रौद्योगिकी के लाभों का उपयोग करने में सक्षम बनाता है।

Easy to start
Create something amazing

Experiment with AppMaster with free plan.
When you will be ready you can choose the proper subscription.

Get Started