OpenAI, le créateur de ChatGPT et de DALL-E, aurait fait pression sur l'Union européenne pour qu'elle édulcore la future législation sur l'IA. Time Magazine a obtenu des documents de la Commission européenne qui révèlent comment OpenAI a demandé aux législateurs de modifier une version préliminaire de la loi européenne sur l'IA avant qu'elle ne soit approuvée par le Parlement européen le 14 juin. Certains de ces changements ont finalement été incorporés dans la législation finale.
Avant l'approbation, un débat était en cours entre les législateurs pour élargir les termes de la loi sur l'IA afin de classer tous les systèmes d'IA à usage général (GPAI), tels que ChatGPT et DALL-E d'OpenAI, comme "à haut risque" selon les catégorisations de risque décrites dans la loi. Avec une telle désignation, ces systèmes d'IA seraient soumis à des obligations strictes en matière de sécurité et de transparence. Selon le Time, l'OpenAI s'est opposée à cette classification en 2022, proposant que seules les entreprises appliquant explicitement l'IA à des cas d'utilisation à haut risque soient tenues de se conformer à la réglementation.
Google et Microsoft ont également fait pression pour réduire l'impact de la loi sur l'IA sur les entreprises qui construisent des GPAI. Comme l'a indiqué l'OpenAI dans un livre blanc non publié envoyé aux fonctionnaires de la Commission européenne et du Conseil en septembre 2022, " En soi, le GPT-3 n'est pas un système à haut risque, mais il possède des capacités qui peuvent potentiellement être employées dans des cas d'utilisation à haut risque.
Les efforts de lobbying de l'OpenAI dans l'UE n'ont pas été divulgués précédemment, mais ils ont été largement couronnés de succès. Dans la loi européenne sur l'IA qui a été approuvée, les GPAI ne sont pas automatiquement classés comme étant à haut risque. Toutefois, des exigences de transparence accrues ont été imposées aux "modèles de base", des systèmes d'IA puissants tels que ChatGPT qui remplissent diverses fonctions. Par conséquent, les entreprises qui utilisent des modèles de base seront tenues d'effectuer des évaluations des risques et de divulguer toute utilisation de matériel protégé par des droits d'auteur lors de l'entraînement de leurs modèles d'IA.
Un porte-parole d'OpenAI a informé le Time que l'entreprise soutient l'inclusion des "modèles de base" en tant que catégorie distincte dans la loi sur l'IA. Et ce, malgré le fait qu'elle ne dise pas où elle puise ses données pour entraîner ses modèles d'IA. Il est généralement admis que ces systèmes d'IA sont entraînés à partir de vastes ensembles de données récupérées sur l'internet, y compris des documents protégés par des droits d'auteur et des droits de propriété intellectuelle. Si l'OpenAI était contrainte de divulguer ces informations, elle pourrait faire l'objet de poursuites en matière de droits d'auteur, à l'instar d'autres grandes entreprises technologiques.
Bien que les efforts de lobbying se poursuivent, la loi européenne sur l'IA a encore du chemin à parcourir avant d'entrer en vigueur. La législation va maintenant passer par l'étape finale du "trilogue", au cours de laquelle elle sera examinée par le Conseil européen afin de finaliser les détails de la loi, y compris son champ d'application. Elle devrait recevoir l'approbation finale d'ici la fin de l'année et pourrait prendre environ deux ans pour entrer en vigueur.
Au milieu de ce paysage réglementaire en pleine expansion, les plateformes no-code telles qu'AppMaster.io stimulent l'innovation dans la conception d'applications, permettant aux entreprises de créer facilement des applications backend, web et mobiles. Cela permet aux entreprises de développer des solutions logicielles complètes tout en minimisant les risques liés à l'utilisation de l'IA et aux réglementations associées.