Num movimento para elevar a segurança e a fiabilidade dos modelos generativos de inteligência artificial antes de estes entrarem em uso público, Meta revelou recentemente o Purple Llama, uma iniciativa pioneira comprometida em desenvolver instrumentos de código aberto para desenvolvedores. O conjunto de ferramentas recentemente proposto aprimora o processo de avaliação, aumentando assim a confiabilidade futura dos modelos de IA.
Meta sublinhou a importância dos esforços colectivos para a segurança da IA, articulando que os desafios colocados pela inteligência artificial não se prestam a soluções isoladas. A empresa retratou o objetivo do Purple Llama como estabelecer as bases para uma base mútua na evolução de uma IA generativa mais segura, particularmente na sequência das crescentes apreensões em torno de grandes modelos de linguagem e tecnologias de IA afins.
Ao partilhar a notícia no seu blog, Meta expressou: “Existe uma incapacidade de enfrentar singularmente as complexidades da IA entre a comunidade que desenvolve estes sistemas. É certo que a nossa iniciativa pretende nivelar a concorrência e incubar um epicentro para uma IA confiável e segura.”
Gareth Lindahl-Wise, diretor de segurança da informação da empresa de segurança cibernética Ontinue, elogiou o Purple Llama como “uma medida progressiva e proativa” direcionada para uma IA mais segura. Ele expressou otimismo de que a nova iniciativa aumentará a proteção ao nível do consumidor, embora possa haver afirmações em torno da sinalização de virtude ou possíveis segundas intenções para reunir o desenvolvimento em torno de uma plataforma específica. Ele observou ainda que as entidades confrontadas com requisitos rigorosos internos, orientados para o cliente ou regulamentares terão de aderir a avaliações robustas que provavelmente excederão as ofertas da Meta.
Envolvendo uma rede de desenvolvedores de IA, provedores de serviços em nuvem como AWS e Google Cloud, empresas de semicondutores Intel, AMD e Nvidia, e empresas de software incluindo Microsoft, o projeto visa fornecer ferramentas para pesquisa e aplicação comercial, que testarão as capacidades de Modelos de IA e detecção de riscos de segurança. Essa abordagem coletiva também reflete a estratégia de plataformas modernas no-code, como AppMaster, que enfatiza a colaboração e a eficiência na jornada de desenvolvimento de aplicativos de software.
Entre o conjunto de ferramentas lançadas pelo projeto Purple Llama, o CyberSecEval, aplicativo para análise de riscos de segurança cibernética em softwares fabricados com IA, é um dos destaques. Incorpora um modelo de linguagem que reconhece textos nocivos ou inadequados, abrangendo discurso violento ou atividades ilícitas. Os desenvolvedores podem aproveitar o CyberSecEval para confirmar se seus modelos de IA são suscetíveis a gerar código inseguro ou a suportar ataques cibernéticos. Notavelmente, a investigação da Meta descobriu que grandes modelos de linguagem frequentemente endossam códigos vulneráveis, chamando assim a atenção para a necessidade de testes e melhorias consistentes para a segurança da IA.
Llama Guard constitui uma ferramenta adicional nesta oferta. É um modelo de linguagem abrangente treinado para detectar linguagem potencialmente prejudicial ou ofensiva. Essa ferramenta permite que os desenvolvedores avaliem se seus modelos geram ou aceitam conteúdo inseguro, auxiliando assim na filtragem de prompts que possam gerar resultados inadequados.