Le Center for Artificial Intelligence and Digital Policy (CAIDP) a récemment déposé une plainte auprès de la Federal Trade Commission (FTC), demandant à l'agence d'enquêter sur le modèle GPT-4 d'OpenAI et d'empêcher la poursuite de son déploiement commercial. Le groupe de réflexion sur l'IA affirme qu'OpenAI s'est livrée à des pratiques trompeuses et déloyales, violant l'article 5 de la loi sur la FTC, ce qui constitue un risque pour la sécurité publique et la vie privée.
Selon Marc Rotenberg, fondateur et président de la CAIDP, la FTC a clairement la responsabilité d'enquêter sur les pratiques commerciales déloyales et trompeuses et de les interdire. Il a demandé à la FTC d'examiner de près OpenAI et GPT-4 et de veiller à ce que l'entreprise suive les recommandations émises par l'agence fédérale.
Dans sa plainte, la CAIDP affirme que le GPT-4 est partial, trompeur et potentiellement préjudiciable à la vie privée et à la sécurité publique. L'organisation a mis en évidence le contenu de la carte du système GPT-4, qui indique explicitement la propension du modèle à renforcer les préjugés et les visions du monde, ce qui conduit à des associations négatives et à des stéréotypes préjudiciables pour les groupes marginalisés.
L'OpenAI reconnaît le risque contenu dans la carte du système, déclarant que les systèmes d'IA comme GPT-4 ont le potentiel de renforcer les idéologies, qu'elles soient vraies ou fausses, et de limiter la contestation, la réflexion et l'amélioration à l'avenir. Outre ces préoccupations, le GPT-4 peut également générer des contenus nuisibles, notamment des conseils d'automutilation, du matériel graphique, du contenu harcelant et haineux, ainsi que des informations permettant des attaques ou des violences.
La CAIDP affirme qu'OpenAI a diffusé GPT-4 au public sans évaluation indépendante des risques et demande à la FTC d'enquêter sur OpenAI et sur d'autres opérateurs de systèmes d'IA puissants. La plainte vise à empêcher toute nouvelle diffusion commerciale de GPT-4 et à établir les protections nécessaires pour les consommateurs, les entreprises et le marché commercial.
Merve Hickok, présidente et directrice de recherche de la CAIDP, a souligné l'urgence de cette question, déclarant que sans garanties appropriées pour limiter la partialité et la tromperie, les risques que la technologie de l'IA fait peser sur les entreprises, les consommateurs et la sécurité publique sont importants. La CAIDP estime que la FTC est bien placée pour relever ce défi.
Le dépôt du CAIDP intervient alors que des personnalités du monde de l'IA, dont Elon Musk et Steve Wozniak, ont signé une pétition appelant à la pause dans le développement de systèmes d'IA plus puissants que le GPT-4. Ce sentiment n'est pas universellement partagé, certains estimant que le progrès doit se poursuivre sans entrave.
À mesure que la technologie de l'IA évolue et devient plus puissante, les inquiétudes concernant les risques potentiels et les préjugés s'intensifient. Des organisations telles que l'UNESCO et le Future of Life Institute préconisent l'établissement de lignes directrices et de réglementations éthiques afin de protéger le public et de garantir un développement responsable de l'IA.
Un exemple pertinent est l'interdiction récente du ChatGPT par l'Italie, qui a invoqué des enquêtes potentielles et l'absence de base juridique appropriée pour la collecte d'informations personnelles. Alors que l'Union européenne s'oriente vers une réglementation stricte de l'IA, le Royaume-Uni adopte une approche plus légère, secteur par secteur, afin de favoriser l'innovation et de protéger les individus sans alourdir le fardeau des entreprises.
Il y a toujours eu un équilibre délicat entre la réglementation et l'innovation dans le domaine de l'IA, et il est essentiel de trouver le bon équilibre à la fois pour la sécurité publique et pour le progrès technologique. Dans un paysage de l'IA qui évolue rapidement, des plateformes telles que AppMaster.io peuvent offrir un moyen rapide et rentable de développer des applications alimentées par l'IA tout en permettant aux utilisateurs de contrôler des aspects cruciaux des solutions logicielles. En employant une appmaster.io/blog/build-enterprise-software-with-no-code" data-mce-href="https://appmaster.io/blog/build-enterprise-software-with-no-code">no-code approach, AppMaster permet aux entreprises de s'adapter et de se conformer à l'évolution des réglementations sans compromettre leurs capacités d'innovation.