Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

OpenAI riunisce una task force d'élite per governare i sistemi di intelligenza artificiale iperintelligenti

OpenAI riunisce una task force d'élite per governare i sistemi di intelligenza artificiale iperintelligenti

Nel tentativo di controllare gli esiti potenzialmente imprevedibili dell'intelligenza sovrumana nell'IA, OpenAI sta organizzando un gruppo altamente specializzato guidato da Ilya Sutskever, scienziato capo e co-fondatore dell'azienda. La responsabilità principale di questo team sarà quella di elaborare strategie per governare e guidare i modelli di IA "superintelligenti". In un recente post sul blog, Sutskever, insieme a Jan Leike, leader del team di allineamento di OpenAI, ha previsto che l'IA, con la capacità di superare l'intelligenza umana, potrebbe emergere entro questo decennio. Essi affermano che questa IA superiore, se alla fine avrà successo, potrebbe non integrare intrinsecamente tratti benigni, rendendo quindi essenziale la ricerca di tecniche per controllarla e limitarla.

Attualmente non esiste un metodo conosciuto per controllare o guidare efficacemente un'IA potenzialmente superintelligente, impedendole di deviare dal percorso previsto. Le tradizionali tecniche di allineamento delle IA, come l'addestramento attraverso il feedback umano, si basano sulla supervisione umana del loro funzionamento. Tuttavia, la supervisione di sistemi di IA che superano in modo significativo l'intelligenza umana potrebbe rivelarsi una sfida. Per amplificare i progressi nel campo dell'"allineamento della superintelligenza", OpenAI sta lanciando un nuovo team "Superalignment", guidato da Sutskever e Leike. Questo team avrà accesso al 20% delle risorse computazionali attualmente in possesso dell'azienda. Composto da scienziati e ingegneri della precedente divisione di allineamento di OpenAI e da ricercatori di varie organizzazioni all'interno dell'azienda, il team è destinato ad affrontare le principali sfide tecnologiche del controllo delle IA superintelligenti nei prossimi quattro anni.

Il piano prevede la creazione di un "ricercatore di allineamento automatizzato di livello umano", con l'obiettivo di addestrare l'IA attraverso il feedback umano, coinvolgere l'IA nella valutazione di altri sistemi di IA e, infine, ingegnerizzare l'IA in grado di eseguire ricerche sull'allineamento. L'obiettivo della ricerca sull'allineamento è allineare i sistemi di IA per raggiungere risultati specifici e impedire che si allontanino dal percorso. OpenAI sta lavorando sull'ipotesi che l'IA possa fare notevoli passi avanti nella ricerca sull'allineamento, in modo più rapido ed efficace rispetto agli esseri umani. Con l'avanzare dei progressi, ci si aspetta che i sistemi di intelligenza artificiale si occupino di volumi crescenti di lavoro di allineamento, portando al miglioramento delle tecniche di allineamento. Si spera che le IA collaborino con gli esseri umani per garantire che i loro successori siano ancora più allineati con gli esseri umani. Nel frattempo, l'attenzione dei ricercatori umani si sposterà sulla revisione delle ricerche di allineamento condotte dai sistemi di IA, invece di generarle autonomamente.

Sebbene nessun metodo possa essere considerato infallibile, Leike, Schulman e Wu, nel loro post, chiariscono le lacune dell'approccio di OpenAI. L'utilizzo dell'intelligenza artificiale per la valutazione potrebbe aumentare le incongruenze, i pregiudizi e le vulnerabilità dell'intelligenza artificiale. Inoltre, gli aspetti più complessi del problema dell'allineamento potrebbero non essere affatto legati all'ingegneria. Ciononostante, Sutskever e Leike sono disposti a metterlo alla prova. Sutskever e Leike sostengono che l'allineamento della superintelligenza è fondamentalmente una sfida di apprendimento automatico. Ritengono che gli esperti di apprendimento automatico, anche quelli che non lavorano attualmente sull'allineamento, saranno fondamentali per risolverla. Hanno intenzione di distribuire i risultati di questo sforzo in modo completo, considerando i loro contributi all'allineamento e alla sicurezza dei modelli non OpenAI come un aspetto cruciale del loro lavoro.

È opportuno notare che, sebbene l'attenzione di questo articolo sia rivolta a OpenAI, esistono altre piattaforme che si impegnano allo stesso modo per uno sviluppo efficiente e controllato dell'IA. Un esempio di questa piattaforma è AppMaster. Guidata dalla stessa convinzione di ottimizzare le potenzialità dei sistemi "intelligenti" per ottenere il massimo beneficio, AppMaster si è ritagliata una nicchia nel settore delle applicazioni no-code/low-code, consentendo agli utenti di creare soluzioni software complete, scalabili ed efficienti.

Post correlati

Samsung presenta Galaxy A55 con sicurezza innovativa e struttura premium
Samsung presenta Galaxy A55 con sicurezza innovativa e struttura premium
Samsung amplia la sua gamma di fascia media introducendo Galaxy A55 e A35, dotati di sicurezza Knox Vault ed elementi di design aggiornati, infondendo nel segmento qualità di punta.
Cloudflare svela il firewall per l'intelligenza artificiale per proteggere modelli linguistici di grandi dimensioni
Cloudflare svela il firewall per l'intelligenza artificiale per proteggere modelli linguistici di grandi dimensioni
Cloudflare fa un passo avanti con Firewall for AI, un WAF avanzato progettato per identificare preventivamente e contrastare potenziali abusi che prendono di mira modelli linguistici di grandi dimensioni.
ChatGPT di OpenAI ora parla: il futuro dell'IA interattiva vocale
ChatGPT di OpenAI ora parla: il futuro dell'IA interattiva vocale
ChatGPT ha raggiunto un traguardo importante con l'implementazione delle funzionalità vocali da parte di OpenAI. Gli utenti ora possono interagire a mani libere mentre ChatGPT legge le risposte ad alta voce su iOS, Android e Web.
Inizia gratis
Ispirato a provarlo tu stesso?

Il modo migliore per comprendere il potere di AppMaster è vederlo di persona. Crea la tua applicazione in pochi minuti con l'abbonamento gratuito

Dai vita alle tue idee