Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

Meta annuncia Purple Llama: un'iniziativa per strumenti open source per aumentare la sicurezza dell'IA

Meta annuncia Purple Llama: un'iniziativa per strumenti open source per aumentare la sicurezza dell'IA

Nel tentativo di elevare la sicurezza e l’affidabilità dei modelli di intelligenza artificiale generativa prima che diventino di uso pubblico, Meta ha recentemente presentato Purple Llama, un’iniziativa pionieristica impegnata a ideare strumenti open source per gli sviluppatori. Il set di strumenti appena proposto migliora il processo di valutazione, aumentando così la futura affidabilità dei modelli di intelligenza artificiale.

Meta ha sottolineato la criticità degli sforzi collettivi verso la sicurezza dell’intelligenza artificiale, affermando che le sfide poste dall’intelligenza artificiale non si prestano a soluzioni isolate. L’azienda ha descritto l’obiettivo di Purple Llama come quello di gettare le basi per una base comune nell’evoluzione di un’intelligenza artificiale generativa più sicura, in particolare sulla scia delle crescenti apprensioni intorno ai grandi modelli linguistici e alle tecnologie di intelligenza artificiale affini.

Condividendo la notizia sul suo blog, Meta ha affermato: “C’è l’incapacità di affrontare individualmente le complessità dell’intelligenza artificiale nella comunità che sviluppa questi sistemi. Certo, la nostra iniziativa aspira a livellare la concorrenza e a incubare un epicentro per un’intelligenza artificiale affidabile e sicura”.

Gareth Lindahl-Wise, Chief Information Security Officer presso la società di sicurezza informatica Ontinue, ha lodato Purple Llama come "una misura progressiva e proattiva" diretta verso un'IA più sicura. Ha espresso ottimismo sul fatto che la nuova iniziativa migliorerà la protezione a livello di consumatore, anche se potrebbero esserci affermazioni sulla segnalazione di virtù o possibili ulteriori motivi nel raccogliere lo sviluppo attorno a una particolare piattaforma. Ha inoltre osservato che le entità che devono confrontarsi con rigorosi requisiti interni, orientati al cliente o normativi dovranno aderire a solide valutazioni che probabilmente supereranno le offerte di Meta.

Coinvolgendo una rete di sviluppatori di intelligenza artificiale, fornitori di servizi cloud come AWS e Google Cloud, aziende di semiconduttori Intel, AMD e Nvidia e società di software tra cui Microsoft, il progetto mira a fornire strumenti sia per la ricerca che per applicazioni commerciali, che metteranno alla prova le capacità di Modelli di intelligenza artificiale e rilevamento dei rischi per la sicurezza. Questo approccio collettivo riflette anche la strategia delle moderne piattaforme no-code come AppMaster, che enfatizza la collaborazione e l'efficienza nel percorso di sviluppo di applicazioni software.

Tra la raccolta di strumenti lanciati dal progetto Purple Llama, CyberSecEval, un'applicazione per analizzare i rischi della sicurezza informatica nel software fabbricato con intelligenza artificiale, è uno dei punti salienti. Incorpora un modello linguistico che riconosce testi dannosi o inappropriati, che comprendono discorsi violenti o attività illecite. Gli sviluppatori possono sfruttare CyberSecEval per verificare se i loro modelli di intelligenza artificiale sono suscettibili di generare codice non sicuro o supportare attacchi informatici. In particolare, l’indagine di Meta ha scoperto che i modelli linguistici di grandi dimensioni spesso supportano codice vulnerabile, attirando così l’attenzione sulla necessità di test e miglioramenti coerenti per la sicurezza dell’intelligenza artificiale.

Llama Guard costituisce uno strumento aggiuntivo in questa offerta. Si tratta di un modello linguistico completo addestrato a rilevare linguaggio potenzialmente dannoso o offensivo. Questo strumento consente agli sviluppatori di valutare se i loro modelli generano o accettano contenuti non sicuri, aiutando così nel filtraggio dei prompt che potrebbero generare output inappropriati.

Post correlati

Samsung presenta Galaxy A55 con sicurezza innovativa e struttura premium
Samsung presenta Galaxy A55 con sicurezza innovativa e struttura premium
Samsung amplia la sua gamma di fascia media introducendo Galaxy A55 e A35, dotati di sicurezza Knox Vault ed elementi di design aggiornati, infondendo nel segmento qualità di punta.
Cloudflare svela il firewall per l'intelligenza artificiale per proteggere modelli linguistici di grandi dimensioni
Cloudflare svela il firewall per l'intelligenza artificiale per proteggere modelli linguistici di grandi dimensioni
Cloudflare fa un passo avanti con Firewall for AI, un WAF avanzato progettato per identificare preventivamente e contrastare potenziali abusi che prendono di mira modelli linguistici di grandi dimensioni.
ChatGPT di OpenAI ora parla: il futuro dell'IA interattiva vocale
ChatGPT di OpenAI ora parla: il futuro dell'IA interattiva vocale
ChatGPT ha raggiunto un traguardo importante con l'implementazione delle funzionalità vocali da parte di OpenAI. Gli utenti ora possono interagire a mani libere mentre ChatGPT legge le risposte ad alta voce su iOS, Android e Web.
Inizia gratis
Ispirato a provarlo tu stesso?

Il modo migliore per comprendere il potere di AppMaster è vederlo di persona. Crea la tua applicazione in pochi minuti con l'abbonamento gratuito

Dai vita alle tue idee