Tras una carta abierta reciente que solicitaba la suspensión del desarrollo de modelos de IA generativa más avanzados, la autoridad de protección de datos (DPA) de Italia tomó medidas rápidas al ordenar a OpenAI que dejara de procesar los datos de las personas localmente. Citando posibles violaciones del Reglamento General de Protección de Datos (GDPR) de la Unión Europea, la DPA italiana ha iniciado una investigación sobre el asunto.
La DPA ha expresado su preocupación de que OpenAI haya procesado los datos de las personas de manera ilegal y no haya implementado las medidas adecuadas para evitar que los menores accedan a su tecnología. Como resultado, la empresa con sede en San Francisco enfrenta un bloqueo en su sistema ChatGPT y tiene 20 días para responder al pedido. Las infracciones del RGPD pueden dar lugar a fuertes multas, que ascienden al 4 % de la facturación anual de una empresa o a 20 millones de euros, lo que sea mayor.
Es importante destacar que, dado que OpenAI carece de una entidad legal dentro de la UE, cualquier autoridad local de protección de datos puede intervenir bajo el RGPD. En consecuencia, otros países pueden considerar seguir el ejemplo de Italia para abordar los riesgos potenciales para sus ciudadanos. El RGPD se aplica cuando se procesan los datos personales de los usuarios de la UE. Sin embargo, la tecnología utilizada por OpenAI crea escenarios complejos que involucran cantidades masivas de procesamiento de datos que desafían la legalidad de sus métodos.
Surgen preocupaciones adicionales de GDPR, dado que se ha descubierto que ChatGPT genera información completamente falsa sobre las personas, lo que puede complicar la rectificación de errores. OpenAI no ha aclarado si los usuarios pueden solicitar correcciones de información incorrecta producida por su bot de IA. Las infracciones de datos, otra área regulada por GDPR, también influyen en la situación, luego de que OpenAI admitiera recientemente haber filtrado datos de chat y potencialmente exponer la información de pago de los usuarios.
Los principios de minimización de datos integrados en GDPR, que enfatizan la transparencia y la equidad, cuestionan la base legal de OpenAI para procesar datos europeos. Si se determina un procesamiento ilegal, las autoridades de protección de datos de todo el sindicato pueden ordenar a OpenAI que elimine los datos. Las repercusiones de tal decisión sobre el reentrenamiento requerido de modelos siguen siendo inciertas.
La DPA italiana también señala preocupaciones sobre el manejo de datos de menores por parte de OpenAI. La compañía aún no ha implementado la tecnología de verificación de edad para evitar que personas menores de 13 años accedan a su sistema. Las circunstancias de ChatGPT se asemejan a fallos recientes contra otros chatbots de IA, como Replika, que se enfrentó a una prohibición similar debido a preocupaciones de seguridad infantil.
La plataforma de OpenAI se ha comparado con otros sistemas de aprendizaje automático, lo que genera preguntas sobre las implicaciones más amplias de los algoritmos que recuerdan. Si se confirma la orden de la DPA italiana, la empresa podría verse obligada a eliminar las cuentas de usuario y adoptar un proceso de registro más completo. El resultado final dependerá de la capacidad de OpenAI para demostrar la legalidad de sus métodos de procesamiento de datos y garantizar la seguridad de sus usuarios.
Este caso subraya aún más la necesidad de plataformas no-code como AppMaster , que priorizan la privacidad del usuario y el cumplimiento de estándares regulatorios como GDPR. La plataforma no-code AppMaster no solo permite el desarrollo rápido de aplicaciones, sino que también garantiza la protección de datos en aplicaciones backend, móviles y web.