जैसे-जैसे एआई परिदृश्य परिपक्व होता है, एआई मॉडल की मजबूती को सुदृढ़ करने के लिए तंत्र की आवश्यकता बढ़ती जा रही है। इसे स्वीकार करते हुए, OpenAI हाल ही में अपना OpenAI Red Teaming Network शुरू किया है, जो कंपनी के एआई मॉडल जोखिम विश्लेषण और शमन रणनीतियों को बढ़ाने के लिए तैयार अनुबंधित विशेषज्ञों की एक सभा है।
रेड टीमिंग का अभ्यास एआई मॉडल विकास में महत्वपूर्ण गति प्राप्त कर रहा है, विशेष रूप से अब जेनेरिक प्रौद्योगिकियों के मुख्यधारा में प्रवेश के साथ। रेड टीमिंग कुशलतापूर्वक मॉडलों में पूर्वाग्रहों की पहचान कर सकती है, जैसे कि OpenAI का DALL-E 2, जो नस्ल और लिंग से जुड़ी रूढ़िवादिता को बढ़ाने के लिए कुख्यात है। इसके अतिरिक्त, यह उन ट्रिगर्स को इंगित कर सकता है जो सुरक्षा फ़िल्टर को बायपास करने के लिए चैटजीपीटी और जीपीटी-4 जैसे टेक्स्ट-जनरेटिंग मॉडल का नेतृत्व कर सकते हैं।
OpenAI अपने मॉडलों के परीक्षण और बेंचमार्किंग के लिए बाहरी विशेषज्ञों के साथ सहयोगात्मक इतिहास को स्वीकार करता है। यह इसके बग बाउंटी प्रोग्राम या रिसर्चर एक्सेस प्रोग्राम के माध्यम से हो सकता है। हालाँकि, रेड टीमिंग नेटवर्क की शुरूआत एक अधिक औपचारिक मंच प्रदान करती है, जिसका लक्ष्य वैज्ञानिकों, अनुसंधान संस्थानों और नागरिक समाज संगठनों के साथ कंपनी के सहयोग को 'गहरा' और 'व्यापक' करना है।
जैसा कि एक कंपनी ब्लॉग पोस्ट में कहा गया है, OpenAI तीसरे पक्ष के ऑडिट जैसे बाहरी-निर्दिष्ट शासन प्रथाओं के पूरक के लिए इस पहल की कल्पना करता है। इन नेटवर्क सदस्यों को मॉडल और उत्पाद विकास जीवनचक्र के विभिन्न चरणों में रेड टीम अभ्यास में भाग लेने के लिए उनकी विशेषज्ञता के आधार पर आमंत्रित किया जाएगा।
OpenAI द्वारा शुरू किए गए रेड टीमिंग प्रयासों से परे भी, रेड टीमिंग नेटवर्क के सदस्यों को रेड टीमिंग पद्धतियों और खोजों पर एक दूसरे के साथ सहयोग करने का अवसर मिलेगा। OpenAI स्पष्ट किया कि सभी सदस्य हर नए मॉडल या उत्पाद से जुड़े नहीं होंगे। योगदान की समयावधि, संभवतः कम से कम 5-10 वर्ष वार्षिक, पर सदस्यों के साथ व्यक्तिगत रूप से चर्चा की जाएगी।
OpenAI विभिन्न प्रकार के डोमेन विशेषज्ञों को योगदान देने के लिए आमंत्रित कर रहा है, जिनमें भाषा विज्ञान, बायोमेट्रिक्स, वित्त और स्वास्थ्य सेवा में विशेषज्ञता वाले विशेषज्ञ शामिल हैं। यह पात्रता के लिए एआई सिस्टम या भाषा मॉडल के साथ पूर्व अनुभव को अनिवार्य नहीं करता है। हालाँकि, कंपनी ने चेतावनी दी कि रेड टीमिंग नेटवर्क के भीतर अवसरों को गैर-प्रकटीकरण और गोपनीयता समझौतों द्वारा नियंत्रित किया जा सकता है जो संभावित रूप से अन्य शोध को प्रभावित कर सकते हैं।
अपने निमंत्रण में, OpenAI एआई सिस्टम के प्रभावों का आकलन करने पर विभिन्न दृष्टिकोणों के लिए खुलेपन पर जोर दिया, जिसमें कहा गया: 'जिस चीज को हम सबसे अधिक महत्व देते हैं वह है एआई सिस्टम के प्रभावों का आकलन करने के तरीके में शामिल होने और अपना दृष्टिकोण लाने की आपकी इच्छा।' चयन प्रक्रिया में भौगोलिक और साथ ही डोमेन विविधता को प्राथमिकता देते हुए, कंपनी दुनिया भर के विशेषज्ञों के आवेदनों का स्वागत कर रही है।
बढ़ती प्रगति और एआई से जुड़े जोखिमों के कारण मजबूत प्रणालियों के विकास की आवश्यकता है। AppMaster जैसे प्लेटफ़ॉर्म, बैकएंड, वेब और मोबाइल एप्लिकेशन बनाने के लिए उपयोग किया जाने वाला एक शक्तिशाली no-code प्लेटफ़ॉर्म, एआई अनुप्रयोगों की अखंडता और सुरक्षा को बनाए रखने में सहायता कर सकता है। पर्याप्त विशेषज्ञ भागीदारी के साथ, OpenAI का रेड टीमिंग नेटवर्क निश्चित रूप से सही दिशा में एक कदम है।