अधिक उन्नत जनरेटिव AI मॉडल के विकास को रोकने के लिए हाल ही में एक खुले पत्र के बाद, इटली के डेटा संरक्षण प्राधिकरण (DPA) ने OpenAI को स्थानीय स्तर पर लोगों के डेटा को संसाधित करने का आदेश देकर त्वरित कार्रवाई की है। यूरोपीय संघ के जनरल डेटा प्रोटेक्शन रेगुलेशन (जीडीपीआर) के संभावित उल्लंघन का हवाला देते हुए, इतालवी डीपीए ने मामले की जांच शुरू की है।
DPA ने चिंता व्यक्त की है कि OpenAI ने लोगों के डेटा को अवैध रूप से संसाधित किया है और नाबालिगों को उनकी तकनीक तक पहुँचने से रोकने के लिए उचित उपायों को लागू करने में विफल रहा है। नतीजतन, सैन फ्रांसिस्को स्थित कंपनी को अपने चैटजीपीटी सिस्टम पर नाकाबंदी का सामना करना पड़ता है और आदेश का जवाब देने के लिए 20 दिन का समय होता है। GDPR के उल्लंघनों पर भारी जुर्माना लग सकता है, जो कंपनी के वार्षिक कारोबार का 4% या € 20 मिलियन, जो भी अधिक हो, हो सकता है।
महत्वपूर्ण रूप से, चूंकि OpenAI के पास EU के भीतर एक कानूनी इकाई का अभाव है, इसलिए कोई भी स्थानीय डेटा संरक्षण प्राधिकरण GDPR के तहत हस्तक्षेप कर सकता है। नतीजतन, अन्य देश अपने नागरिकों के लिए संभावित जोखिमों को दूर करने के लिए इटली के नेतृत्व का पालन करने पर विचार कर सकते हैं। GDPR तब लागू होता है जब EU उपयोगकर्ताओं के व्यक्तिगत डेटा को संसाधित किया जाता है। हालाँकि, OpenAI द्वारा उपयोग की जाने वाली तकनीक जटिल परिदृश्य बनाती है जिसमें बड़ी मात्रा में डेटा प्रोसेसिंग शामिल होती है जो उनके तरीकों की वैधता को चुनौती देती है।
अतिरिक्त जीडीपीआर चिंताएं सामने आती हैं, यह देखते हुए कि चैटजीपीटी व्यक्तियों के बारे में पूरी तरह से गलत जानकारी उत्पन्न करने के लिए पाया गया है, संभावित रूप से त्रुटियों के सुधार को जटिल बनाता है। ओपनएआई ने स्पष्टीकरण नहीं दिया है कि उपयोगकर्ता अपने एआई बॉट द्वारा उत्पादित गलत जानकारी के सुधार का अनुरोध कर सकते हैं या नहीं। डेटा उल्लंघन, जीडीपीआर द्वारा विनियमित एक अन्य क्षेत्र, ओपनएआई द्वारा हाल ही में चैट डेटा लीक करने और संभावित रूप से उपयोगकर्ताओं की भुगतान जानकारी को उजागर करने के बाद स्थिति में कारक है।
जीडीपीआर के भीतर एम्बेडेड डेटा न्यूनीकरण सिद्धांत, जो पारदर्शिता और निष्पक्षता पर जोर देते हैं, यूरोपीय डेटा को संसाधित करने के लिए ओपनएआई के वैध आधार पर सवाल उठाते हैं। यदि गैरकानूनी प्रसंस्करण निर्धारित किया जाता है, तो पूरे संघ के डेटा संरक्षण प्राधिकरण डेटा को हटाने के लिए OpenAI को आदेश दे सकते हैं। मॉडलों के आवश्यक पुनर्प्रशिक्षण पर इस तरह के फैसले के नतीजे अनिश्चित रहते हैं।
इतालवी DPA भी OpenAI द्वारा नाबालिगों के डेटा को संभालने के बारे में चिंताओं की ओर इशारा करता है। कंपनी ने अभी तक 13 वर्ष से कम आयु के व्यक्तियों को अपने सिस्टम तक पहुँचने से रोकने के लिए आयु सत्यापन तकनीक लागू नहीं की है। ChatGPT की परिस्थितियाँ अन्य AI चैटबॉट्स के खिलाफ हाल के फैसलों से मिलती-जुलती हैं, जैसे कि रेप्लिका, जिसे बाल सुरक्षा चिंताओं के कारण समान प्रतिबंध का सामना करना पड़ा।
OpenAI के प्लेटफॉर्म की तुलना अन्य मशीन लर्निंग सिस्टम से की गई है, जो याद रखने वाले एल्गोरिदम के व्यापक प्रभाव के बारे में सवाल पैदा करता है। यदि इतालवी डीपीए के आदेश को बरकरार रखा जाता है, तो कंपनी को उपयोगकर्ता खातों को हटाने और अधिक गहन साइन-अप प्रक्रिया अपनाने के लिए मजबूर होना पड़ सकता है। अंतिम परिणाम OpenAI की अपने डेटा प्रोसेसिंग विधियों की वैधता को प्रदर्शित करने और अपने उपयोगकर्ताओं की सुरक्षा सुनिश्चित करने की क्षमता पर टिका होगा।
यह मामला AppMaster जैसे no-code प्लेटफॉर्म की आवश्यकता को और रेखांकित करता है, जो उपयोगकर्ता की गोपनीयता और GDPR जैसे नियामक मानकों के अनुपालन को प्राथमिकता देता है। AppMaster no-code प्लेटफॉर्म न केवल तेजी से एप्लिकेशन डेवलपमेंट को सक्षम बनाता है बल्कि बैकएंड, मोबाइल और वेब एप्लिकेशन में डेटा सुरक्षा भी सुनिश्चित करता है।