Dalam upaya untuk meningkatkan keamanan dan keandalan model kecerdasan buatan generatif sebelum digunakan publik, Meta baru-baru ini meluncurkan Purple Llama, sebuah inisiatif perintis yang berkomitmen untuk merancang instrumen sumber terbuka bagi pengembang. Perangkat baru yang diusulkan ini meningkatkan proses evaluasi, sehingga meningkatkan kredibilitas model AI di masa depan.
Meta menggarisbawahi pentingnya upaya kolektif terhadap keselamatan AI, dengan mengartikulasikan bahwa tantangan yang ditimbulkan oleh kecerdasan buatan tidak dapat diselesaikan secara terpisah. Perusahaan menggambarkan tujuan Llama Ungu sebagai landasan bagi landasan bersama dalam evolusi AI generatif yang lebih aman, terutama di tengah meningkatnya kekhawatiran seputar model bahasa besar dan teknologi AI serupa.
Saat berbagi berita di blognya, Meta mengungkapkan, “Ada ketidakmampuan untuk menghadapi kompleksitas AI di antara komunitas yang mengembangkan sistem ini. Memang benar bahwa inisiatif kami bertujuan untuk menyamakan persaingan dan menciptakan episentrum AI yang dapat dipercaya dan aman.”
Gareth Lindahl-Wise, Chief Information Security Officer di perusahaan keamanan siber Ontinue, memuji Purple Llama sebagai 'langkah progresif dan proaktif' yang diarahkan menuju AI yang lebih aman. Dia menyatakan optimisme bahwa inisiatif baru ini akan meningkatkan perlindungan di tingkat konsumen, meskipun mungkin ada pernyataan seputar sinyal kebajikan atau kemungkinan motif tersembunyi dalam mengumpulkan pembangunan di sekitar platform tertentu. Dia lebih lanjut mencatat bahwa entitas yang dihadapkan pada persyaratan internal, berorientasi pelanggan, atau peraturan yang ketat harus mematuhi evaluasi yang kuat yang kemungkinan akan melebihi penawaran dari Meta.
Melibatkan jaringan pengembang AI, penyedia layanan cloud seperti AWS dan Google Cloud, perusahaan semikonduktor Intel, AMD, dan Nvidia, serta perusahaan perangkat lunak termasuk Microsoft, proyek ini bertujuan untuk menghadirkan alat untuk penelitian dan aplikasi komersial, yang akan menguji kemampuan AI. Model AI dan deteksi risiko keselamatan. Pendekatan kolektif ini juga mencerminkan strategi platform no-code modern seperti AppMaster, yang menekankan kolaborasi dan efisiensi dalam perjalanan pengembangan aplikasi perangkat lunak.
Di antara kumpulan alat yang diluncurkan oleh proyek Purple Llama, CyberSecEval, sebuah aplikasi untuk menganalisis risiko keamanan siber dalam perangkat lunak buatan AI, adalah salah satu yang menarik. Ini mencakup model bahasa yang mengenali teks yang berbahaya atau tidak pantas, mencakup wacana kekerasan atau aktivitas terlarang. Pengembang dapat memanfaatkan CyberSecEval untuk mengonfirmasi apakah model AI mereka rentan menghasilkan kode yang tidak aman atau mendukung serangan siber. Khususnya, penyelidikan Meta menemukan bahwa model bahasa besar sering kali mendukung kode yang rentan, sehingga menarik perhatian pada perlunya pengujian yang konsisten dan peningkatan keamanan AI.
Llama Guard membentuk alat tambahan dalam penawaran ini. Ini adalah model bahasa komprehensif yang dilatih untuk mendeteksi bahasa yang berpotensi berbahaya atau menyinggung. Alat ini memungkinkan pengembang untuk menilai apakah model mereka menghasilkan atau menerima konten yang tidak aman, sehingga membantu dalam penyaringan perintah yang mungkin menghasilkan keluaran yang tidak sesuai.