Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

La presión de OpenAI en la UE debilita la normativa sobre IA

La presión de OpenAI en la UE debilita la normativa sobre IA

OpenAI, creadora de ChatGPT y DALL-E, habría presionado a la Unión Europea para que suavizara la nueva legislación sobre IA. La revista Time ha obtenido documentos de la Comisión Europea que revelan cómo OpenAI pidió a los legisladores que modificaran una versión preliminar de la Ley de IA de la UE antes de que fuera aprobada por el Parlamento Europeo el 14 de junio. Algunos de estos cambios se incorporaron finalmente a la legislación definitiva.

Antes de la aprobación, los legisladores estaban debatiendo la ampliación de los términos de la Ley de IA para clasificar todos los sistemas de IA de propósito general (GPAI), como ChatGPT y DALL-E de OpenAI, como de "alto riesgo" según las categorías de riesgo descritas en la ley. Con tal designación, estos sistemas de IA estarían sujetos a estrictas obligaciones de seguridad y transparencia. Según Time, OpenAI luchó contra esta clasificación en 2022, proponiendo que sólo las empresas que apliquen explícitamente la IA a casos de uso de alto riesgo estén obligadas a cumplir la normativa.

Google y Microsoft también han presionado para que se reduzca el impacto de la Ley de IA en las empresas que construyen GPAI. Como declaró OpenAI en un libro blanco inédito enviado a funcionarios de la Comisión y el Consejo de la UE en septiembre de 2022, Por sí mismo, el GPT-3 no es un sistema de alto riesgo, pero posee capacidades que pueden emplearse potencialmente en casos de uso de alto riesgo.

Los esfuerzos de lobby de OpenAI en la UE no se han divulgado previamente, pero han demostrado tener un gran éxito. En la Ley de IA de la UE aprobada, los GPAI no se clasifican automáticamente como de alto riesgo. Sin embargo, se han impuesto mayores requisitos de transparencia a los "modelos fundacionales", potentes sistemas de IA como ChatGPT que sirven para diversas tareas. En consecuencia, las empresas que utilicen modelos de base deberán realizar evaluaciones de riesgo y revelar cualquier uso de material protegido por derechos de autor durante el entrenamiento de sus modelos de IA.

Un portavoz de OpenAI informó a Time de que la empresa apoya la inclusión de los "modelos fundacionales" como categoría separada dentro de la Ley de IA. Y ello a pesar de su secretismo sobre dónde obtienen los datos para entrenar los modelos de IA. Existe la creencia generalizada de que estos sistemas de IA se entrenan a partir de grandes conjuntos de datos extraídos de Internet, incluidos materiales protegidos por derechos de autor y propiedad intelectual. Si OpenAI se viera obligada a revelar esa información, podría verse expuesta a demandas por derechos de autor, al igual que otras grandes empresas tecnológicas.

Aunque persisten los esfuerzos de los grupos de presión, la Ley de Inteligencia Artificial de la UE aún tiene un trecho que recorrer antes de entrar en vigor. La legislación pasará ahora a la fase final de "trílogo", en la que se debatirá en el Consejo Europeo para ultimar los detalles de la ley, incluido su ámbito de aplicación. Se espera que reciba la aprobación final a finales de año y que tarde unos dos años en entrar en vigor.

En medio de este creciente panorama normativo, las plataformas no-code como AppMaster.io están impulsando la innovación en el diseño de aplicaciones, permitiendo a las empresas crear aplicaciones backend, web y móviles con facilidad. Esto permite a las empresas desarrollar soluciones de software integrales al tiempo que minimizan los riesgos relacionados con el uso de la IA y la normativa asociada.

Entradas relacionadas

Samsung presenta el Galaxy A55 con seguridad innovadora y construcción premium
Samsung presenta el Galaxy A55 con seguridad innovadora y construcción premium
Samsung amplía su línea de gama media presentando los Galaxy A55 y A35, que cuentan con seguridad Knox Vault y elementos de diseño mejorados, infundiendo al segmento cualidades emblemáticas.
Cloudflare presenta un firewall para que la IA proteja los modelos de lenguajes grandes
Cloudflare presenta un firewall para que la IA proteja los modelos de lenguajes grandes
Cloudflare da un paso adelante con Firewall para IA, un WAF avanzado diseñado para identificar y frustrar de forma preventiva posibles abusos dirigidos a modelos de lenguaje grandes.
ChatGPT de OpenAI ahora habla: el futuro de la IA interactiva por voz
ChatGPT de OpenAI ahora habla: el futuro de la IA interactiva por voz
ChatGPT ha logrado una característica histórica con el despliegue de capacidades de voz de OpenAI. Los usuarios ahora pueden disfrutar de una interacción manos libres mientras ChatGPT lee las respuestas en voz alta en iOS, Android y la web.
EMPIEZA GRATIS
¿Inspirado para probar esto usted mismo?

La mejor manera de comprender el poder de AppMaster es verlo por sí mismo. Haz tu propia aplicación en minutos con suscripción gratuita

Da vida a tus ideas