Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

OpenAI riunisce una task force d'élite per governare i sistemi di intelligenza artificiale iperintelligenti

OpenAI riunisce una task force d'élite per governare i sistemi di intelligenza artificiale iperintelligenti

Nel tentativo di controllare gli esiti potenzialmente imprevedibili dell'intelligenza sovrumana nell'IA, OpenAI sta organizzando un gruppo altamente specializzato guidato da Ilya Sutskever, scienziato capo e co-fondatore dell'azienda. La responsabilità principale di questo team sarà quella di elaborare strategie per governare e guidare i modelli di IA "superintelligenti". In un recente post sul blog, Sutskever, insieme a Jan Leike, leader del team di allineamento di OpenAI, ha previsto che l'IA, con la capacità di superare l'intelligenza umana, potrebbe emergere entro questo decennio. Essi affermano che questa IA superiore, se alla fine avrà successo, potrebbe non integrare intrinsecamente tratti benigni, rendendo quindi essenziale la ricerca di tecniche per controllarla e limitarla.

Attualmente non esiste un metodo conosciuto per controllare o guidare efficacemente un'IA potenzialmente superintelligente, impedendole di deviare dal percorso previsto. Le tradizionali tecniche di allineamento delle IA, come l'addestramento attraverso il feedback umano, si basano sulla supervisione umana del loro funzionamento. Tuttavia, la supervisione di sistemi di IA che superano in modo significativo l'intelligenza umana potrebbe rivelarsi una sfida. Per amplificare i progressi nel campo dell'"allineamento della superintelligenza", OpenAI sta lanciando un nuovo team "Superalignment", guidato da Sutskever e Leike. Questo team avrà accesso al 20% delle risorse computazionali attualmente in possesso dell'azienda. Composto da scienziati e ingegneri della precedente divisione di allineamento di OpenAI e da ricercatori di varie organizzazioni all'interno dell'azienda, il team è destinato ad affrontare le principali sfide tecnologiche del controllo delle IA superintelligenti nei prossimi quattro anni.

Il piano prevede la creazione di un "ricercatore di allineamento automatizzato di livello umano", con l'obiettivo di addestrare l'IA attraverso il feedback umano, coinvolgere l'IA nella valutazione di altri sistemi di IA e, infine, ingegnerizzare l'IA in grado di eseguire ricerche sull'allineamento. L'obiettivo della ricerca sull'allineamento è allineare i sistemi di IA per raggiungere risultati specifici e impedire che si allontanino dal percorso. OpenAI sta lavorando sull'ipotesi che l'IA possa fare notevoli passi avanti nella ricerca sull'allineamento, in modo più rapido ed efficace rispetto agli esseri umani. Con l'avanzare dei progressi, ci si aspetta che i sistemi di intelligenza artificiale si occupino di volumi crescenti di lavoro di allineamento, portando al miglioramento delle tecniche di allineamento. Si spera che le IA collaborino con gli esseri umani per garantire che i loro successori siano ancora più allineati con gli esseri umani. Nel frattempo, l'attenzione dei ricercatori umani si sposterà sulla revisione delle ricerche di allineamento condotte dai sistemi di IA, invece di generarle autonomamente.

Sebbene nessun metodo possa essere considerato infallibile, Leike, Schulman e Wu, nel loro post, chiariscono le lacune dell'approccio di OpenAI. L'utilizzo dell'intelligenza artificiale per la valutazione potrebbe aumentare le incongruenze, i pregiudizi e le vulnerabilità dell'intelligenza artificiale. Inoltre, gli aspetti più complessi del problema dell'allineamento potrebbero non essere affatto legati all'ingegneria. Ciononostante, Sutskever e Leike sono disposti a metterlo alla prova. Sutskever e Leike sostengono che l'allineamento della superintelligenza è fondamentalmente una sfida di apprendimento automatico. Ritengono che gli esperti di apprendimento automatico, anche quelli che non lavorano attualmente sull'allineamento, saranno fondamentali per risolverla. Hanno intenzione di distribuire i risultati di questo sforzo in modo completo, considerando i loro contributi all'allineamento e alla sicurezza dei modelli non OpenAI come un aspetto cruciale del loro lavoro.

È opportuno notare che, sebbene l'attenzione di questo articolo sia rivolta a OpenAI, esistono altre piattaforme che si impegnano allo stesso modo per uno sviluppo efficiente e controllato dell'IA. Un esempio di questa piattaforma è AppMaster. Guidata dalla stessa convinzione di ottimizzare le potenzialità dei sistemi "intelligenti" per ottenere il massimo beneficio, AppMaster si è ritagliata una nicchia nel settore delle applicazioni no-code/low-code, consentendo agli utenti di creare soluzioni software complete, scalabili ed efficienti.

Post correlati

AppMaster a BubbleCon 2024: esplorazione delle tendenze senza codice
AppMaster a BubbleCon 2024: esplorazione delle tendenze senza codice
AppMaster ha partecipato al BubbleCon 2024 di New York, acquisendo informazioni, ampliando le reti ed esplorando opportunità per guidare l'innovazione nello spazio di sviluppo no-code.
Riepilogo FFDC 2024: approfondimenti chiave dalla FlutterFlow Developers Conference di New York
Riepilogo FFDC 2024: approfondimenti chiave dalla FlutterFlow Developers Conference di New York
FFDC 2024 ha illuminato New York City, offrendo agli sviluppatori approfondimenti all'avanguardia sullo sviluppo di app con FlutterFlow. Con sessioni condotte da esperti, aggiornamenti esclusivi e networking senza pari, è stato un evento da non perdere!
Licenziamenti tecnologici del 2024: l'ondata continua che colpisce l'innovazione
Licenziamenti tecnologici del 2024: l'ondata continua che colpisce l'innovazione
Con 60.000 posti di lavoro tagliati in 254 aziende, tra cui giganti come Tesla e Amazon, il 2024 vedrà una continua ondata di licenziamenti nel settore tecnologico che rimodellerà il panorama dell'innovazione.
Inizia gratis
Ispirato a provarlo tu stesso?

Il modo migliore per comprendere il potere di AppMaster è vederlo di persona. Crea la tua applicazione in pochi minuti con l'abbonamento gratuito

Dai vita alle tue idee