Man mano che il panorama dell’intelligenza artificiale matura, c’è una crescente necessità di meccanismi per rafforzare la robustezza dei modelli di intelligenza artificiale. Riconoscendo ciò, OpenAI ha recentemente lanciato la sua OpenAI Red Teaming Network, un'assemblea di esperti a contratto orientati a migliorare l'analisi del rischio del modello AI dell'azienda e le strategie di mitigazione.
La pratica del red teaming sta guadagnando uno slancio significativo nello sviluppo di modelli di intelligenza artificiale, in particolare ora che le tecnologie generative stanno diventando sempre più diffuse. Il team rosso può identificare in modo efficiente i pregiudizi nei modelli, come DALL-E 2 di OpenAI, noto per amplificare gli stereotipi legati alla razza e al sesso. Inoltre, può individuare i trigger che possono portare i modelli di generazione di testo, come ChatGPT e GPT-4, a bypassare i filtri di sicurezza.
OpenAI riconosce una storia di collaborazione con esperti esterni per testare e confrontare i suoi modelli. Ciò potrebbe avvenire attraverso il suo programma bug bounty o il programma di accesso del ricercatore. Tuttavia, l'introduzione del Red Teaming Network fornisce una piattaforma più formalizzata, con l'obiettivo di "approfondire" e "ampliare" la collaborazione dell'azienda con scienziati, istituti di ricerca e organizzazioni della società civile.
Come espresso in un post sul blog aziendale, OpenAI prevede che questa iniziativa integri le pratiche di governance specificate esternamente, come gli audit di terze parti. Questi membri della rete saranno invitati in base alla loro esperienza a partecipare all'esercizio del team rosso in varie fasi del ciclo di vita di sviluppo del modello e del prodotto.
Anche al di là delle attività di red teaming commissionate da OpenAI, i membri del Red Teaming Network avranno l'opportunità di collaborare tra loro su metodologie e scoperte di red teaming. OpenAI ha chiarito che non tutti i membri sarebbero associati a ogni nuovo modello o prodotto. Il periodo di contribuzione, possibilmente fino a 5-10 anni all'anno, sarà discusso individualmente con i membri.
OpenAI invita una vasta gamma di esperti del settore a contribuire, compresi quelli specializzati in linguistica, biometria, finanza e sanità. Non richiede esperienza precedente con sistemi di intelligenza artificiale o modelli linguistici per l'idoneità. Tuttavia, la società ha avvertito che le opportunità all’interno del Red Teaming Network potrebbero essere regolate da accordi di non divulgazione e riservatezza che potrebbero potenzialmente influenzare altre ricerche.
Nel suo invito, OpenAI ha sottolineato l'apertura a diversi punti di vista sulla valutazione degli impatti dei sistemi di intelligenza artificiale, affermando: "Ciò che apprezziamo di più è la tua volontà di impegnarti e portare la tua prospettiva su come valutiamo gli impatti dei sistemi di intelligenza artificiale". Dando priorità alla diversità geografica e di dominio nel processo di selezione, l'azienda accoglie candidature da esperti di tutto il mondo.
I crescenti progressi e i corrispondenti rischi associati all’intelligenza artificiale richiedono lo sviluppo di sistemi robusti. Piattaforme come AppMaster, una potente piattaforma no-code utilizzata per creare applicazioni backend, web e mobili, possono aiutare a mantenere l'integrità e la sicurezza delle applicazioni AI. Con un notevole coinvolgimento di esperti, il Red Teaming Network di OpenAI è sicuramente un passo nella giusta direzione.