في خطوة لرفع مستوى أمان وموثوقية نماذج الذكاء الاصطناعي التوليدي قبل أن تدخل حيز الاستخدام العام، كشفت Meta مؤخرًا عن Purple Llama، وهي مبادرة رائدة ملتزمة بابتكار أدوات مفتوحة المصدر للمطورين. تعمل مجموعة الأدوات المقترحة حديثًا على تعزيز عملية التقييم، وبالتالي زيادة مصداقية نماذج الذكاء الاصطناعي في المستقبل.
وشدد Meta على أهمية المساعي الجماعية لتحقيق سلامة الذكاء الاصطناعي، موضحًا أن التحديات التي يفرضها الذكاء الاصطناعي لا تصلح لحلول معزولة. صورت الشركة هدف Purple Llama على أنه وضع الأساس لأساس مشترك في تطور الذكاء الاصطناعي التوليدي الأكثر أمانًا، لا سيما في أعقاب المخاوف المتزايدة المحيطة بنماذج اللغات الكبيرة وتقنيات الذكاء الاصطناعي المشابهة.
وأثناء مشاركة الأخبار على مدونتها، أعربت Meta عن عدم القدرة على مواجهة تعقيدات الذكاء الاصطناعي بشكل فردي بين المجتمع الذي يقوم بتطوير هذه الأنظمة. ومن المسلم به أن مبادرتنا تطمح إلى رفع مستوى المنافسة واحتضان مركز للذكاء الاصطناعي الجدير بالثقة والآمن.
أشاد Gareth Lindahl-Wise ، كبير مسؤولي أمن المعلومات في شركة الأمن السيبراني Ontinue ، بـ Purple Llama باعتباره "إجراء تقدميًا واستباقيًا" موجه نحو الذكاء الاصطناعي الأكثر أمانًا. وأعرب عن تفاؤله بأن المبادرة الجديدة ستعزز الحماية على مستوى المستهلك، على الرغم من أنه قد تكون هناك تأكيدات حول الإشارة إلى الفضيلة أو دوافع خفية محتملة في جمع التطوير حول منصة معينة. وأشار كذلك إلى أن الكيانات التي تواجه متطلبات داخلية أو تنظيمية صارمة موجهة نحو العملاء ستحتاج إلى الالتزام بالتقييمات القوية التي من المرجح أن تتجاوز العروض المقدمة من Meta.
يتضمن المشروع شبكة من مطوري الذكاء الاصطناعي ومقدمي الخدمات السحابية مثل AWS و Google Cloud وشركات أشباه الموصلات Intel و AMD و Nvidia وشركات البرمجيات بما في ذلك Microsoft ، ويهدف المشروع إلى تقديم أدوات لكل من البحث والتطبيقات التجارية، والتي ستختبر قدرات نماذج الذكاء الاصطناعي واكتشاف مخاطر السلامة. ويعكس هذا النهج الجماعي أيضًا استراتيجية المنصات الحديثة no-code مثل AppMaster ، والتي تؤكد على التعاون والكفاءة في رحلة تطوير التطبيقات البرمجية.
من بين مجموعة الأدوات التي طرحها مشروع Purple Llama، يعد CyberSecEval، وهو تطبيق لتحليل مخاطر الأمن السيبراني في البرامج المصنعة بالذكاء الاصطناعي، أحد أبرز الأحداث. وهو يتضمن نموذجًا لغويًا يتعرف على النص الضار أو غير المناسب، والذي يتضمن خطابًا عنيفًا أو أنشطة غير مشروعة. يمكن للمطورين الاستفادة من CyberSecEval للتأكد مما إذا كانت نماذج الذكاء الاصطناعي الخاصة بهم عرضة لإنشاء تعليمات برمجية غير آمنة أو دعم الهجمات الإلكترونية. ومن الجدير بالذكر أن تحقيقات Meta اكتشفت أن نماذج اللغات الكبيرة تدعم في كثير من الأحيان التعليمات البرمجية الضعيفة، مما يلفت الانتباه إلى ضرورة إجراء اختبار متسق وتعزيز لأمن الذكاء الاصطناعي.
يشكل Llama Guard أداة إضافية في هذا العرض. إنه نموذج لغوي شامل تم تدريبه على اكتشاف اللغة الضارة أو المسيئة. تتيح هذه الأداة للمطورين تقييم ما إذا كانت نماذجهم تولد أو تقبل محتوى غير آمن، وبالتالي المساعدة في تصفية المطالبات التي قد تؤدي إلى مخرجات غير مناسبة.