Dans le but d'améliorer la sécurité et la fiabilité des modèles d'intelligence artificielle générative avant qu'ils ne soient utilisés par le public, Meta a récemment dévoilé Purple Llama, une initiative pionnière engagée dans la conception d'instruments open source pour les développeurs. L'ensemble d'outils nouvellement proposé améliore le processus d'évaluation, augmentant ainsi la fiabilité future des modèles d'IA.
Meta a souligné l’importance des efforts collectifs en faveur de la sécurité de l’IA, expliquant que les défis posés par l’intelligence artificielle ne se prêtent pas à des solutions isolées. La société a présenté l’objectif de Purple Llama comme jetant les bases d’une base mutuelle dans l’évolution d’une IA générative plus sûre, en particulier à la suite des appréhensions croissantes concernant les grands modèles de langage et les technologies d’IA apparentées.
Tout en partageant la nouvelle sur son blog, Meta a déclaré : « Il existe une incapacité à affronter individuellement les complexités de l'IA au sein de la communauté qui développe ces systèmes. Certes, notre initiative aspire à égaliser la concurrence et à incuber un épicentre pour une IA fiable et sécurisée.
Gareth Lindahl-Wise, responsable de la sécurité de l'information à la société de cybersécurité Ontinue, a salué Purple Llama comme « une mesure progressive et proactive » orientée vers une IA plus sûre. Il s'est dit optimiste quant au fait que la nouvelle initiative renforcera la protection au niveau des consommateurs, même si des affirmations peuvent être faites autour de signaux de vertu ou d'éventuelles arrière-pensées dans le regroupement du développement autour d'une plate-forme particulière. Il a en outre noté que les entités confrontées à des exigences internes rigoureuses, orientées client ou réglementaires devront adhérer à des évaluations robustes qui sont susceptibles de dépasser les offres de Meta.
Impliquant un réseau de développeurs d'IA, de fournisseurs de services cloud comme AWS et Google Cloud, de sociétés de semi-conducteurs Intel, AMD et Nvidia, et d'éditeurs de logiciels dont Microsoft, le projet vise à fournir des outils pour la recherche et les applications commerciales, qui testeront les capacités de L’IA modélise et détecte les risques de sécurité. Cette approche collective reflète également la stratégie des plateformes modernes no-code comme AppMaster, qui mettent l'accent sur la collaboration et l'efficacité dans le parcours de développement d'applications logicielles.
Parmi la collection d'outils déployés par le projet Purple Llama, CyberSecEval, une application permettant d'analyser les risques de cybersécurité dans les logiciels fabriqués par l'IA, est l'un des points forts. Il intègre un modèle linguistique qui reconnaît les textes préjudiciables ou inappropriés, englobant les discours violents ou les activités illicites. Les développeurs peuvent tirer parti de CyberSecEval pour confirmer si leurs modèles d'IA sont susceptibles de générer du code non sécurisé ou de prendre en charge des cyberattaques. L'enquête de Meta a notamment révélé que les grands modèles de langage approuvent fréquemment le code vulnérable, attirant ainsi l'attention sur la nécessité de tests et d'améliorations cohérents pour la sécurité de l'IA.
Llama Guard constitue un outil supplémentaire dans cette offre. Il s'agit d'un modèle linguistique complet formé pour détecter le langage potentiellement nuisible ou offensant. Cet outil permet aux développeurs d'évaluer si leurs modèles génèrent ou acceptent du contenu dangereux, contribuant ainsi au filtrage des invites susceptibles de générer des sorties inappropriées.