Meta üretken yapay zeka modellerinin kamu kullanımına girmeden önce güvenliğini ve güvenilirliğini artırmaya yönelik bir hareketle, yakın zamanda geliştiriciler için açık kaynaklı araçlar tasarlamaya kendini adamış öncü bir girişim olan Purple Llama'yı tanıttı. Yeni önerilen araç seti, değerlendirme sürecini geliştirerek yapay zeka modellerinin gelecekteki güvenilirliğini artırıyor.
Meta, yapay zeka güvenliğine yönelik kolektif çabaların kritikliğinin altını çizerek, yapay zekanın ortaya koyduğu zorlukların izole çözümlere uygun olmadığını ifade etti. Şirket, Mor Lama'nın amacını, özellikle büyük dil modelleri ve benzer yapay zeka teknolojileriyle ilgili artan endişelerin ardından, daha güvenli üretken yapay zekanın evriminde ortak bir temelin temellerini atmak olarak tanımladı.
Meta, haberi blogunda paylaşırken şunları ifade etti: “Bu sistemleri geliştiren toplulukta yapay zekanın karmaşıklıklarıyla tek başına yüzleşme konusunda bir yetersizlik var. Kuşkusuz, girişimimiz rekabeti eşitlemeyi ve güvenilir ve emniyetli yapay zeka için bir merkez üssü oluşturmayı amaçlıyor."
Siber güvenlik firması Ontinue Baş Bilgi Güvenliği Sorumlusu Gareth Lindahl-Wise, Mor Lama'yı daha güvenli yapay zekaya yönelik 'ilerici ve proaktif bir önlem' olarak övdü. Yeni girişimin tüketici düzeyinde korumayı artıracağı yönündeki iyimserliğini dile getirdi; ancak, gelişmeyi belirli bir platform etrafında toplama konusunda erdem sinyali veya olası gizli amaçlarla ilgili iddialar olabilir. Ayrıca, sıkı iç, müşteri odaklı veya düzenleyici gerekliliklerle karşı karşıya kalan kuruluşların, Meta'nın tekliflerini aşması muhtemel sağlam değerlendirmelere uyması gerekeceğini de belirtti.
Yapay zeka geliştiricilerinden, AWS ve Google Cloud gibi bulut hizmet sağlayıcılarından, yarı iletken şirketler Intel, AMD ve Nvidia ve Microsoft da aralarında bulunduğu yazılım şirketlerinden oluşan bir ağı içeren proje, hem araştırma hem de ticari uygulama için araçların yeteneklerini test edecek araçlar sunmayı amaçlıyor. Yapay zeka modelleri ve güvenlik risklerini tespit edin. Bu kolektif yaklaşım aynı zamanda AppMaster gibi modern no-code platformların, yazılım uygulaması geliştirme yolculuğunda işbirliğini ve verimliliği vurgulayan stratejisini de yansıtıyor.
Purple Llama projesi tarafından kullanıma sunulan araçlar arasında, yapay zeka tarafından üretilen yazılımlardaki siber güvenlik risklerini analiz etmeye yönelik bir uygulama olan CyberSecEval, öne çıkanlardan biri. Şiddet içeren söylemi veya yasa dışı faaliyetleri kapsayan, zararlı veya uygunsuz metni tanıyan bir dil modelini içerir. Geliştiriciler, yapay zeka modellerinin güvenli olmayan kod oluşturmaya veya siber saldırıları desteklemeye açık olup olmadığını doğrulamak için CyberSecEval'den yararlanabilir. Özellikle Meta araştırması, büyük dil modellerinin sıklıkla savunmasız kodları desteklediğini keşfetti ve böylece yapay zeka güvenliği için tutarlı test ve geliştirme gerekliliğine dikkat çekildi.
Llama Guard bu teklifte ek bir araç oluşturur. Potansiyel olarak zararlı veya rahatsız edici dili tespit etmek için eğitilmiş kapsamlı bir dil modelidir. Bu araç, geliştiricilerin, modellerinin güvenli olmayan içerik oluşturup oluşturmadığını veya kabul edip etmediğini değerlendirmesine olanak tanır ve böylece uygunsuz çıktılara neden olabilecek istemlerin filtrelenmesine yardımcı olur.