El regulador de datos del Reino Unido advierte a las empresas tecnológicas sobre las preocupaciones sobre la protección de datos de IA generativa
La Oficina de la Comisión de Información (ICO) del Reino Unido ha emitido una advertencia a las empresas tecnológicas sobre las leyes de protección de datos al desarrollar modelos generativos de IA.

En medio de las preocupaciones sobre la protección de datos de IA generativa, la Oficina de la Comisión de Información (ICO) del Reino Unido emite un recordatorio a las empresas tecnológicas para que respeten las leyes de protección de datos. Esto ocurre poco después de que el regulador de privacidad de datos de Italia prohibiera el uso de ChatGPT, alegando violaciones de privacidad.
El ICO publicó una publicación de blog que enfatiza a las organizaciones que las regulaciones de protección de datos aún están vigentes, incluso si la información personal que se procesa proviene de recursos disponibles públicamente. Stephen Almond, Director de Tecnología e Innovación de ICO, instó a las organizaciones que desarrollan o usan IA generativa a adoptar un enfoque de protección de datos por diseño y por defecto desde el principio.
En su declaración, Almond enfatizó que las organizaciones que trabajan con datos personales para fines de IA generativa deben contemplar su base legal para procesar datos personales. También deben considerar cómo pueden reducir los riesgos de seguridad y abordar las solicitudes de derechos individuales. Almond insiste en que no hay justificación para descuidar las implicaciones de privacidad de la IA generativa.
Además del ICO y el regulador de datos italiano, otras figuras notables han expresado su preocupación por los riesgos potenciales de la IA generativa. El mes pasado, más de 1100 líderes tecnológicos, incluido el cofundador de Apple, Steve Wozniak, y el empresario Elon Musk, pidieron una pausa de seis meses en el desarrollo de sistemas de IA más potentes que el GPT-4 de OpenAI. En una carta abierta, los signatarios advirtieron sobre un futuro distópico, cuestionando si la IA avanzada podría resultar en una pérdida de control sobre nuestra civilización y las posibles amenazas a la democracia a través de chatbots que difunden propaganda y noticias falsas en las plataformas de redes sociales. También expresaron su preocupación sobre los trabajos de automatización de AI, incluidos los de cumplimiento.
La regulación de la IA presenta un desafío único a medida que la innovación avanza a un ritmo acelerado, superando la velocidad de las medidas regulatorias. Frank Buytendijk, analista de Gartner, señaló que las regulaciones demasiado específicas podrían perder efectividad una vez que la tecnología progrese, mientras que las regulaciones de alto nivel luchan por ser claras. Opinó que la confianza erosionada y la aceptación social resultantes de errores costosos, en lugar de la regulación, podrían inhibir la innovación de la IA. No obstante, la regulación de IA que exige que se verifiquen los modelos en busca de sesgos y que los algoritmos sean más transparentes puede impulsar la innovación para detectar sesgos y lograr transparencia y explicabilidad, agregó Buytendijk.
A la luz de estas preocupaciones, las plataformas de desarrollo no-code y low-code, como AppMaster, tienen como objetivo simplificar el desarrollo de aplicaciones al tiempo que priorizan la protección de datos, la seguridad y el cumplimiento. Al crear aplicaciones backend, web y móviles sin generar deuda técnica, los usuarios pueden desarrollar de manera eficiente soluciones de software escalables completas con backend de servidor, sitios web, portales de clientes y aplicaciones móviles nativas. Adoptar el uso responsable de la IA garantiza que la innovación no se produzca a expensas de la privacidad y la seguridad, lo que permite que la industria tecnológica prospere de manera responsable.


