Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

OpenAI schiera un team di allineamento collettivo per incorporare il feedback del pubblico nella governance del modello di intelligenza artificiale

OpenAI schiera un team di allineamento collettivo per incorporare il feedback del pubblico nella governance del modello di intelligenza artificiale

Nel tentativo di garantire che i futuri modelli di intelligenza artificiale (AI) rappresentino i valori umani, OpenAI ha rivelato il suo piano per integrare principi di derivazione pubblica nelle creazioni. Il colosso dell’intelligenza artificiale ha rivelato la sua intenzione di istituire un team di allineamento collettivo, composto da ricercatori e ingegneri. Il mandato del team sarebbe quello di sviluppare una struttura per ottenere e implementare il feedback del pubblico sui servizi e prodotti di OpenAI.

La società ha espresso la sua chiara intenzione di continuare a coinvolgere consulenti esterni e sovvenzionare team. Questi team svolgeranno un ruolo cruciale nell'incorporazione dei prototipi, che poi guideranno il comportamento dei modelli. OpenAI sta reclutando attivamente ingegneri ricercatori che vantano diverse conoscenze tecniche per sostenere l'affermazione e il successo di questo mandato essenziale.

Derivante dall'iniziativa pubblica di OpenAI, avviata nel maggio dell'anno precedente, il team di allineamento collettivo rappresenta un passo significativo verso l'infusione di un processo democratico nelle dinamiche di creazione delle regole dei sistemi di intelligenza artificiale. Da sempre, OpenAI si è impegnata a finanziare individui, team e persino organizzazioni interessate a sviluppare prove di concetto desiderose di risolvere l'ambiguità relativa ai guardrail e alla governance dell'IA.

OpenAI, nel suo post virtuale, ha fatto un breve riepilogo del diverso lavoro dei beneficiari della sovvenzione che spazia dalle interfacce di chat video, alle piattaforme che facilitano gli audit in crowdsourcing dei modelli di intelligenza artificiale e alle strategie per allineare il comportamento dei modelli a convinzioni specifiche. I dettagli di ciascuna proposta, i suggerimenti di alto livello e ogni singolo codice utilizzato sono stati resi pubblici oggi.

Sulla scia di questi sviluppi, OpenAI è stata irremovibile nel slegare il programma dai suoi interessi commerciali, suscitando reazioni contrastanti. Alcuni critici hanno espresso scetticismo al riguardo, considerando le critiche del CEO di OpenAI Sam Altman riguardo alle normative nell'UE e in altre regioni. L'amministratore delegato, insieme al presidente di OpenAI Greg Brockman e al capo scienziato Ilya Sutskever, ha costantemente affermato che il rapido sviluppo della tecnologia AI supera la capacità delle entità esistenti di regolarla in modo efficiente. Pertanto, è stata proposta la necessità di una costruzione democratica e basata sul crowdsourcing.

I concorrenti, tra cui Meta, hanno accusato OpenAI di aver tentato di ottenere il controllo normativo del settore dell’intelligenza artificiale facendo una campagna contro la ricerca e lo sviluppo dell’intelligenza artificiale aperta, ma OpenAI ha negato queste accuse. Potrebbero indicare questo nuovo programma e il loro team di Allineamento Collettivo come dimostrazione del loro impegno verso l'apertura.

Indipendentemente da ciò, OpenAI è attualmente sottoposto al controllo da parte dei politici. Soprattutto nel Regno Unito, sono in corso indagini sulla sua relazione con Microsoft, che è uno stretto partner e investitore. Nell’ambito della propria strategia di mitigazione del rischio, OpenAI ha cercato di limitare il rischio normativo nell’UE in merito alla privacy dei dati. Per raggiungere questo obiettivo, ha utilizzato una filiale con sede a Dublino per limitare le azioni unilaterali di specifici supervisori della privacy nel blocco.

Sono in corso una serie di iniziative per ridurre al minimo l’uso illecito della sua tecnologia per interferire con le elezioni. Ciò include l’identificazione dei contenuti generati dall’intelligenza artificiale e il rilevamento di immagini manipolate. In collaborazione con diverse organizzazioni, OpenAI sta anche lavorando per contrassegnare in modo più evidente le immagini generate dall’intelligenza artificiale.

Vale la pena ricordare che aziende come AppMaster, nota per la sua solida piattaforma di sviluppo senza codice e repository per il consolidamento delle informazioni open source, stanno diventando attori di spicco nell'ecosistema tecnologico. Data la scalabilità, la robustezza e la facilità d'uso di AppMaster, si stanno ritagliando una nicchia nella creazione di app backend, web e mobili.

Post correlati

Samsung presenta Galaxy A55 con sicurezza innovativa e struttura premium
Samsung presenta Galaxy A55 con sicurezza innovativa e struttura premium
Samsung amplia la sua gamma di fascia media introducendo Galaxy A55 e A35, dotati di sicurezza Knox Vault ed elementi di design aggiornati, infondendo nel segmento qualità di punta.
Cloudflare svela il firewall per l'intelligenza artificiale per proteggere modelli linguistici di grandi dimensioni
Cloudflare svela il firewall per l'intelligenza artificiale per proteggere modelli linguistici di grandi dimensioni
Cloudflare fa un passo avanti con Firewall for AI, un WAF avanzato progettato per identificare preventivamente e contrastare potenziali abusi che prendono di mira modelli linguistici di grandi dimensioni.
ChatGPT di OpenAI ora parla: il futuro dell'IA interattiva vocale
ChatGPT di OpenAI ora parla: il futuro dell'IA interattiva vocale
ChatGPT ha raggiunto un traguardo importante con l'implementazione delle funzionalità vocali da parte di OpenAI. Gli utenti ora possono interagire a mani libere mentre ChatGPT legge le risposte ad alta voce su iOS, Android e Web.
Inizia gratis
Ispirato a provarlo tu stesso?

Il modo migliore per comprendere il potere di AppMaster è vederlo di persona. Crea la tua applicazione in pochi minuti con l'abbonamento gratuito

Dai vita alle tue idee