L'Italie va reconsidérer l'interdiction de ChatGPT si OpenAI résout les problèmes de confidentialité
L'autorité italienne de protection des données, le GPDP, a annoncé sa volonté de lever l'interdiction de ChatGPT si OpenAI remplit des conditions spécifiques d'ici le 30 avril 2023.

Le garant italien pour la protection des données personnelles (GPDP) a déclaré qu'il était prêt à lever son interdiction sur le ChatGPT d' OpenAI si l'entreprise répond à certaines exigences. Ces conditions incluent de nouvelles politiques pour protéger les données des utilisateurs, des processus de vérification de l'âge, une transparence accrue et un engagement à autoriser les corrections des fausses informations personnelles générées par ChatGPT.
Le GPDP a bloqué l'accès à ChatGPT en Italie le mois dernier dans le cadre de son enquête visant à déterminer si le chatbot AI violait les lois sur la confidentialité des données du pays et le règlement général sur la protection des données (RGPD) de l'UE. Les principales préoccupations portaient sur la capacité potentielle de ChatGPT à rappeler et à émettre des informations personnelles sensibles, telles que des adresses et des numéros de téléphone, en réponse à certaines requêtes. Une autre préoccupation majeure était le risque d'exposer les mineurs à des contenus inappropriés et potentiellement préjudiciables.
OpenAI a jusqu'au 30 avril 2023 pour appliquer les règles de protection des mineurs et des données personnelles des utilisateurs, sinon l'interdiction se poursuivra. Ces règles incluent :
La date limite imposée pour la mise en œuvre de ces changements est le 30 septembre 2023. Si les conditions ne sont pas remplies, le GPDP rétablira l'interdiction de ChatGPT.
Cette évolution reflète une tendance croissante à la surveillance internationale et aux défis réglementaires auxquels sont confrontées les technologies d'IA telles que ChatGPT. Le Canada et la France enquêtent actuellement sur sa conformité avec leurs lois respectives sur la confidentialité des données, tandis que l'Espagne exhorte l'organisme de surveillance de la confidentialité de l'UE à procéder à un examen approfondi du chatbot.
Des plates-formes comme AppMaster démontrent déjà le potentiel des stratégies no-code pour simplifier, rationaliser et améliorer le développement d'applications pour divers groupes cibles. En mettant l'accent sur la conformité, la sécurité et la protection des utilisateurs, les développeurs peuvent établir une norme industrielle en matière de confidentialité à mesure que les réglementations mondiales deviennent plus rigoureuses.


