सार्वजनिक उपयोग में आने से पहले जनरेटिव आर्टिफिशियल इंटेलिजेंस मॉडल की सुरक्षा और विश्वसनीयता को बढ़ाने के लिए, Meta हाल ही में पर्पल लामा का अनावरण किया, जो डेवलपर्स के लिए ओपन-सोर्स उपकरण तैयार करने के लिए प्रतिबद्ध एक अग्रणी पहल है। नया प्रस्तावित टूलसेट मूल्यांकन प्रक्रिया को बढ़ाता है, इस प्रकार, एआई मॉडल की भविष्य की विश्वसनीयता को बढ़ाता है।
Meta एआई सुरक्षा की दिशा में सामूहिक प्रयासों की गंभीरता को रेखांकित किया और कहा कि कृत्रिम बुद्धिमत्ता से उत्पन्न चुनौतियाँ पृथक समाधानों तक सीमित नहीं हैं। कंपनी ने पर्पल लामा के उद्देश्य को सुरक्षित जेनरेटर एआई के विकास में पारस्परिक आधार के लिए आधार तैयार करने के रूप में चित्रित किया, विशेष रूप से बड़े भाषा मॉडल और संबंधित एआई प्रौद्योगिकियों के आसपास बढ़ती आशंकाओं के मद्देनजर।
अपने ब्लॉग पर समाचार साझा करते हुए, Meta व्यक्त किया, “इन प्रणालियों को विकसित करने वाले समुदाय के बीच एआई की जटिलताओं का अकेले सामना करने में असमर्थता है। बेशक, हमारी पहल प्रतिस्पर्धा को बराबर करने और भरोसेमंद और सुरक्षित एआई के लिए एक केंद्र बनाने की आकांक्षा रखती है।
साइबर सुरक्षा फर्म Ontinue के मुख्य सूचना सुरक्षा अधिकारी Gareth Lindahl-Wise सुरक्षित एआई की दिशा में निर्देशित 'एक प्रगतिशील और सक्रिय उपाय' के रूप में पर्पल लामा की सराहना की। उन्होंने आशा व्यक्त की कि नई पहल उपभोक्ता-स्तर की सुरक्षा को बढ़ाएगी, हालांकि, किसी विशेष मंच के आसपास विकास को इकट्ठा करने में सद्गुण संकेत या संभावित गुप्त उद्देश्यों के बारे में दावे हो सकते हैं। उन्होंने आगे कहा कि कठोर आंतरिक, ग्राहक-उन्मुख, या नियामक आवश्यकताओं का सामना करने वाली संस्थाओं को मजबूत मूल्यांकन का पालन करने की आवश्यकता होगी जो मेटा की पेशकशों से अधिक होने की संभावना है।
एआई डेवलपर्स, AWS और Google Cloud जैसे क्लाउड सेवा प्रदाताओं, सेमीकंडक्टर निगम Intel, AMD और Nvidia और Microsoft सहित सॉफ्टवेयर कंपनियों के एक नेटवर्क को शामिल करते हुए, इस परियोजना का लक्ष्य अनुसंधान और वाणिज्यिक अनुप्रयोग दोनों के लिए उपकरण प्रदान करना है, जो क्षमताओं का परीक्षण करेगा। एआई मॉडल और सुरक्षा जोखिमों का पता लगाता है। यह सामूहिक दृष्टिकोण AppMaster जैसे आधुनिक no-code प्लेटफार्मों की रणनीति को भी दर्शाता है, जो सॉफ्टवेयर एप्लिकेशन विकास की यात्रा में सहयोग और दक्षता पर जोर देता है।
पर्पल लामा प्रोजेक्ट द्वारा शुरू किए गए टूल के संग्रह में, एआई-निर्मित सॉफ़्टवेयर में साइबर सुरक्षा जोखिमों का विश्लेषण करने के लिए एक एप्लिकेशन, साइबरसेवल, मुख्य आकर्षण में से एक है। इसमें एक भाषा मॉडल शामिल है जो हिंसक प्रवचन या अवैध गतिविधियों सहित हानिकारक या अनुचित पाठ को पहचानता है। डेवलपर्स यह पुष्टि करने के लिए साइबरसेकवेल का लाभ उठा सकते हैं कि क्या उनके एआई मॉडल असुरक्षित कोड उत्पन्न करने या साइबर हमलों का समर्थन करने के लिए अतिसंवेदनशील हैं। विशेष रूप से, Meta की जांच से पता चला है कि बड़े भाषा मॉडल अक्सर कमजोर कोड का समर्थन करते हैं, इस प्रकार एआई सुरक्षा के लिए लगातार परीक्षण और वृद्धि की आवश्यकता पर ध्यान आकर्षित करते हैं।
लामा गार्ड इस पेशकश में एक अतिरिक्त उपकरण बनाता है। यह संभावित रूप से हानिकारक या आपत्तिजनक भाषा का पता लगाने के लिए प्रशिक्षित एक व्यापक भाषा मॉडल है। यह टूल डेवलपर्स को यह आकलन करने में सक्षम बनाता है कि क्या उनके मॉडल असुरक्षित सामग्री उत्पन्न करते हैं या स्वीकार करते हैं, जिससे अनुचित आउटपुट प्राप्त करने वाले संकेतों को फ़िल्टर करने में सहायता मिलती है।