01 apr 2023·2 min di lettura

Il gruppo di riflessione sull'intelligenza artificiale presenta una denuncia contro il GPT-4 di OpenAI e sollecita un'indagine della FTC

Il Centro per l'Intelligenza Artificiale e la Politica Digitale (CAIDP) ha presentato un reclamo alla FTC per indagare sul GPT-4 di OpenAI e bloccarne la diffusione commerciale, sostenendo che si tratta di pratiche distorte e ingannevoli e di rischi per la sicurezza pubblica.

Il gruppo di riflessione sull'intelligenza artificiale presenta una denuncia contro il GPT-4 di OpenAI e sollecita un'indagine della FTC

Il Center for Artificial Intelligence and Digital Policy (CAIDP) ha recentemente presentato una denuncia alla Federal Trade Commission (FTC), chiedendo all'agenzia di indagare sul modello GPT-4 di OpenAI e di impedirne l'ulteriore diffusione commerciale. Il think tank sull'intelligenza artificiale sostiene che OpenAI ha messo in atto pratiche ingannevoli e sleali, violando la sezione cinque del FTC Act e mettendo così a rischio la sicurezza pubblica e la privacy.

Secondo Marc Rotenberg, fondatore e presidente del CAIDP, la FTC ha la chiara responsabilità di indagare e proibire le pratiche commerciali sleali e ingannevoli. Egli ha chiesto che la FTC esamini attentamente OpenAI e GPT-4 e si assicuri che l'azienda segua le linee guida emanate dall'agenzia federale.

Nella denuncia, CAIDP sostiene che il GPT-4 è parziale, ingannevole e potenzialmente dannoso per la privacy e la sicurezza pubblica. L'organizzazione ha evidenziato il contenuto della Scheda di sistema del GPT-4, che dichiara esplicitamente la propensione del modello a rafforzare pregiudizi e visioni del mondo, portando ad associazioni negative e stereotipi dannosi per i gruppi emarginati.

OpenAI riconosce il rischio contenuto nella Scheda di sistema, affermando che i sistemi di intelligenza artificiale come il GPT-4 hanno il potenziale di rafforzare le ideologie, sia vere che false, e di limitare la contestazione, la riflessione e il miglioramento futuri. Oltre a queste preoccupazioni, il GPT-4 può anche generare contenuti dannosi, tra cui consigli per l'autolesionismo, materiale grafico, contenuti molesti e di odio e informazioni che consentono attacchi o violenze.

Il CAIDP sostiene che OpenAI ha reso pubblico il GPT-4 senza una valutazione indipendente dei rischi e chiede alla FTC di indagare su OpenAI e su altri potenti operatori di sistemi di intelligenza artificiale. La denuncia mira a bloccare ulteriori rilasci commerciali di GPT-4 e a stabilire le necessarie protezioni per i consumatori, le imprese e il mercato commerciale.

Merve Hickok, presidente e direttore della ricerca del CAIDP, ha sottolineato l'urgenza di questo problema, affermando che, senza le opportune salvaguardie per limitare i pregiudizi e gli inganni, i rischi che la tecnologia dell'IA comporta per le imprese, i consumatori e la sicurezza pubblica sono significativi. Il CAIDP ritiene che la FTC sia ben posizionata per affrontare questa sfida.

Il deposito del CAIDP giunge in concomitanza con la firma di una petizione da parte di personalità di spicco dell'IA, tra cui Elon Musk e Steve Wozniak, che esortano a sospendere lo sviluppo di sistemi di IA più potenti del GPT-4. Questo sentimento non è universalmente condiviso, poiché alcuni ritengono che il progresso debba continuare senza ostacoli.

Con l'evoluzione e l'aumento della potenza della tecnologia AI, aumentano anche le preoccupazioni per i potenziali rischi e pregiudizi. Organizzazioni come l'UNESCO e il Future of Life Institute sostengono la necessità di stabilire linee guida e regolamenti etici per proteggere il pubblico e garantire uno sviluppo responsabile dell'IA.

Un esempio pertinente è il recente divieto di ChatGPT da parte dell'Italia, che ha citato potenziali indagini e la mancanza di un'adeguata base legale per la raccolta di informazioni personali. Mentre l'Unione Europea si muove verso una rigida regolamentazione dell'IA, il Regno Unito adotta un approccio più leggero e settoriale per promuovere l'innovazione e proteggere gli individui senza gravare sulle imprese.

Nel campo dell'IA c'è sempre stato un delicato equilibrio tra regolamentazione e innovazione; trovare il giusto equilibrio è essenziale sia per la sicurezza pubblica che per il progresso tecnologico. In un panorama di IA in rapida evoluzione, le piattaforme come AppMaster.io possono fornire un modo rapido ed economico per sviluppare applicazioni basate sull'IA, consentendo agli utenti di controllare aspetti cruciali delle soluzioni software. Impiegando un [appmaster.io/blog/build-enterprise-software-with-no-code" data-mce-href="https://appmaster.io/blog/build-enterprise-software-with-no-code">no-code approach](https://<span class=), AppMaster consente alle aziende di adattarsi e rispettare le normative in evoluzione senza compromettere le proprie capacità di innovazione.

Easy to start
Create something amazing

Experiment with AppMaster with free plan.
When you will be ready you can choose the proper subscription.

Get Started