En un intento por elevar la seguridad y confiabilidad de los modelos de inteligencia artificial generativa antes de que entren en uso público, Meta presentó recientemente Purple Llama, una iniciativa pionera comprometida con el diseño de instrumentos de código abierto para desarrolladores. El conjunto de herramientas recientemente propuesto mejora el proceso de evaluación, aumentando así la confiabilidad futura de los modelos de IA.
Meta subrayó la importancia de los esfuerzos colectivos hacia la seguridad de la IA y afirmó que los desafíos que plantea la inteligencia artificial no se prestan a soluciones aisladas. La compañía describió el objetivo de Purple Llama como sentar las bases para una base mutua en la evolución de una IA generativa más segura, particularmente a raíz de las crecientes aprensiones en torno a los grandes modelos de lenguaje y tecnologías de IA afines.
Mientras compartía la noticia en su blog, Meta expresó: “Existe una incapacidad para enfrentar de manera singular las complejidades de la IA entre la comunidad que desarrolla estos sistemas. Es cierto que nuestra iniciativa aspira a nivelar la competencia e incubar un epicentro para una IA segura y confiable”.
Gareth Lindahl-Wise, director de seguridad de la información de la empresa de ciberseguridad Ontinue, elogió a Purple Llama como "una medida progresiva y proactiva" dirigida hacia una IA más segura. Expresó optimismo en que la nueva iniciativa mejorará la protección a nivel del consumidor, aunque puede haber afirmaciones sobre la señalización de virtudes o posibles motivos ocultos para generar desarrollo en torno a una plataforma en particular. Señaló además que las entidades que se enfrentan a rigurosos requisitos internos, orientados al cliente o regulatorios deberán cumplir con evaluaciones sólidas que probablemente superen las ofertas de Meta.
El proyecto, en el que participan una red de desarrolladores de IA, proveedores de servicios en la nube como AWS y Google Cloud, corporaciones de semiconductores Intel, AMD y Nvidia, y empresas de software como Microsoft, tiene como objetivo ofrecer herramientas tanto para investigación como para aplicaciones comerciales, que pondrán a prueba las capacidades de Modela IA y detecta riesgos de seguridad. Este enfoque colectivo también refleja la estrategia de plataformas modernas no-code como AppMaster, que enfatiza la colaboración y la eficiencia en el proceso de desarrollo de aplicaciones de software.
Entre la colección de herramientas implementadas por el proyecto Purple Llama, CyberSecEval, una aplicación para analizar los riesgos de ciberseguridad en software fabricado con IA, es una de las más destacadas. Incorpora un modelo de lenguaje que reconoce texto dañino o inapropiado, abarcando discursos violentos o actividades ilícitas. Los desarrolladores pueden aprovechar CyberSecEval para confirmar si sus modelos de IA son susceptibles de generar código inseguro o soportar ciberataques. En particular, la investigación de Meta descubrió que los modelos de lenguaje grandes con frecuencia respaldan código vulnerable, lo que llama la atención sobre la necesidad de realizar pruebas y mejoras consistentes para la seguridad de la IA.
Llama Guard constituye una herramienta adicional en esta oferta. Es un modelo de lenguaje integral capacitado para detectar lenguaje potencialmente dañino u ofensivo. Esta herramienta permite a los desarrolladores evaluar si sus modelos generan o aceptan contenido inseguro, ayudando así a filtrar mensajes que podrían generar resultados inapropiados.