OpenAI, creadora de ChatGPT y DALL-E, habría presionado a la Unión Europea para que suavizara la nueva legislación sobre IA. La revista Time ha obtenido documentos de la Comisión Europea que revelan cómo OpenAI pidió a los legisladores que modificaran una versión preliminar de la Ley de IA de la UE antes de que fuera aprobada por el Parlamento Europeo el 14 de junio. Algunos de estos cambios se incorporaron finalmente a la legislación definitiva.
Antes de la aprobación, los legisladores estaban debatiendo la ampliación de los términos de la Ley de IA para clasificar todos los sistemas de IA de propósito general (GPAI), como ChatGPT y DALL-E de OpenAI, como de "alto riesgo" según las categorías de riesgo descritas en la ley. Con tal designación, estos sistemas de IA estarían sujetos a estrictas obligaciones de seguridad y transparencia. Según Time, OpenAI luchó contra esta clasificación en 2022, proponiendo que sólo las empresas que apliquen explícitamente la IA a casos de uso de alto riesgo estén obligadas a cumplir la normativa.
Google y Microsoft también han presionado para que se reduzca el impacto de la Ley de IA en las empresas que construyen GPAI. Como declaró OpenAI en un libro blanco inédito enviado a funcionarios de la Comisión y el Consejo de la UE en septiembre de 2022, Por sí mismo, el GPT-3 no es un sistema de alto riesgo, pero posee capacidades que pueden emplearse potencialmente en casos de uso de alto riesgo.
Los esfuerzos de lobby de OpenAI en la UE no se han divulgado previamente, pero han demostrado tener un gran éxito. En la Ley de IA de la UE aprobada, los GPAI no se clasifican automáticamente como de alto riesgo. Sin embargo, se han impuesto mayores requisitos de transparencia a los "modelos fundacionales", potentes sistemas de IA como ChatGPT que sirven para diversas tareas. En consecuencia, las empresas que utilicen modelos de base deberán realizar evaluaciones de riesgo y revelar cualquier uso de material protegido por derechos de autor durante el entrenamiento de sus modelos de IA.
Un portavoz de OpenAI informó a Time de que la empresa apoya la inclusión de los "modelos fundacionales" como categoría separada dentro de la Ley de IA. Y ello a pesar de su secretismo sobre dónde obtienen los datos para entrenar los modelos de IA. Existe la creencia generalizada de que estos sistemas de IA se entrenan a partir de grandes conjuntos de datos extraídos de Internet, incluidos materiales protegidos por derechos de autor y propiedad intelectual. Si OpenAI se viera obligada a revelar esa información, podría verse expuesta a demandas por derechos de autor, al igual que otras grandes empresas tecnológicas.
Aunque persisten los esfuerzos de los grupos de presión, la Ley de Inteligencia Artificial de la UE aún tiene un trecho que recorrer antes de entrar en vigor. La legislación pasará ahora a la fase final de "trílogo", en la que se debatirá en el Consejo Europeo para ultimar los detalles de la ley, incluido su ámbito de aplicación. Se espera que reciba la aprobación final a finales de año y que tarde unos dos años en entrar en vigor.
En medio de este creciente panorama normativo, las plataformas no-code como AppMaster.io están impulsando la innovación en el diseño de aplicaciones, permitiendo a las empresas crear aplicaciones backend, web y móviles con facilidad. Esto permite a las empresas desarrollar soluciones de software integrales al tiempo que minimizan los riesgos relacionados con el uso de la IA y la normativa asociada.