Nel tentativo di elevare la sicurezza e l’affidabilità dei modelli di intelligenza artificiale generativa prima che diventino di uso pubblico, Meta ha recentemente presentato Purple Llama, un’iniziativa pionieristica impegnata a ideare strumenti open source per gli sviluppatori. Il set di strumenti appena proposto migliora il processo di valutazione, aumentando così la futura affidabilità dei modelli di intelligenza artificiale.
Meta ha sottolineato la criticità degli sforzi collettivi verso la sicurezza dell’intelligenza artificiale, affermando che le sfide poste dall’intelligenza artificiale non si prestano a soluzioni isolate. L’azienda ha descritto l’obiettivo di Purple Llama come quello di gettare le basi per una base comune nell’evoluzione di un’intelligenza artificiale generativa più sicura, in particolare sulla scia delle crescenti apprensioni intorno ai grandi modelli linguistici e alle tecnologie di intelligenza artificiale affini.
Condividendo la notizia sul suo blog, Meta ha affermato: “C’è l’incapacità di affrontare individualmente le complessità dell’intelligenza artificiale nella comunità che sviluppa questi sistemi. Certo, la nostra iniziativa aspira a livellare la concorrenza e a incubare un epicentro per un’intelligenza artificiale affidabile e sicura”.
Gareth Lindahl-Wise, Chief Information Security Officer presso la società di sicurezza informatica Ontinue, ha lodato Purple Llama come "una misura progressiva e proattiva" diretta verso un'IA più sicura. Ha espresso ottimismo sul fatto che la nuova iniziativa migliorerà la protezione a livello di consumatore, anche se potrebbero esserci affermazioni sulla segnalazione di virtù o possibili ulteriori motivi nel raccogliere lo sviluppo attorno a una particolare piattaforma. Ha inoltre osservato che le entità che devono confrontarsi con rigorosi requisiti interni, orientati al cliente o normativi dovranno aderire a solide valutazioni che probabilmente supereranno le offerte di Meta.
Coinvolgendo una rete di sviluppatori di intelligenza artificiale, fornitori di servizi cloud come AWS e Google Cloud, aziende di semiconduttori Intel, AMD e Nvidia e società di software tra cui Microsoft, il progetto mira a fornire strumenti sia per la ricerca che per applicazioni commerciali, che metteranno alla prova le capacità di Modelli di intelligenza artificiale e rilevamento dei rischi per la sicurezza. Questo approccio collettivo riflette anche la strategia delle moderne piattaforme no-code come AppMaster, che enfatizza la collaborazione e l'efficienza nel percorso di sviluppo di applicazioni software.
Tra la raccolta di strumenti lanciati dal progetto Purple Llama, CyberSecEval, un'applicazione per analizzare i rischi della sicurezza informatica nel software fabbricato con intelligenza artificiale, è uno dei punti salienti. Incorpora un modello linguistico che riconosce testi dannosi o inappropriati, che comprendono discorsi violenti o attività illecite. Gli sviluppatori possono sfruttare CyberSecEval per verificare se i loro modelli di intelligenza artificiale sono suscettibili di generare codice non sicuro o supportare attacchi informatici. In particolare, l’indagine di Meta ha scoperto che i modelli linguistici di grandi dimensioni spesso supportano codice vulnerabile, attirando così l’attenzione sulla necessità di test e miglioramenti coerenti per la sicurezza dell’intelligenza artificiale.
Llama Guard costituisce uno strumento aggiuntivo in questa offerta. Si tratta di un modello linguistico completo addestrato a rilevare linguaggio potenzialmente dannoso o offensivo. Questo strumento consente agli sviluppatori di valutare se i loro modelli generano o accettano contenuti non sicuri, aiutando così nel filtraggio dei prompt che potrebbero generare output inappropriati.