Na een recente open brief waarin werd gevraagd om de ontwikkeling van meer geavanceerde generatieve AI-modellen stop te zetten, heeft de Italiaanse gegevensbeschermingsautoriteit (DPA) snel actie ondernomen door OpenAI te bevelen de gegevens van mensen niet meer lokaal te verwerken. Onder verwijzing naar mogelijke schendingen van de algemene verordening gegevensbescherming (AVG) van de Europese Unie, heeft de Italiaanse gegevensbeschermingsautoriteit een onderzoek naar de zaak gestart.
De gegevensbeschermingsautoriteit heeft haar bezorgdheid geuit over het feit dat OpenAI mogelijk de gegevens van mensen onrechtmatig heeft verwerkt en geen passende maatregelen heeft genomen om te voorkomen dat minderjarigen toegang krijgen tot hun technologie. Als gevolg hiervan wordt het in San Francisco gevestigde bedrijf geconfronteerd met een blokkade op hun ChatGPT-systeem en heeft het 20 dagen om op de bestelling te reageren. Inbreuken op de AVG kunnen leiden tot hoge boetes, die kunnen oplopen tot 4% van de jaaromzet van een bedrijf of 20 miljoen euro, afhankelijk van wat het hoogste is.
Belangrijk is dat aangezien OpenAI geen juridische entiteit heeft binnen de EU, elke lokale gegevensbeschermingsautoriteit kan ingrijpen onder de AVG. Bijgevolg kunnen andere landen overwegen het voorbeeld van Italië te volgen om potentiële risico's voor hun burgers aan te pakken. De AVG is van toepassing wanneer de persoonsgegevens van EU-gebruikers worden verwerkt. De technologie die door OpenAI wordt gebruikt, creëert echter complexe scenario's met enorme hoeveelheden gegevensverwerking die de wettigheid van hun methoden in twijfel trekken.
Er komen nog meer zorgen over de AVG naar voren, aangezien is gebleken dat ChatGPT volledig onjuiste informatie over individuen genereert, wat het corrigeren van fouten mogelijk bemoeilijkt. OpenAI heeft geen duidelijkheid gegeven over de vraag of gebruikers correcties kunnen aanvragen van onjuiste informatie die door hun AI-bot is geproduceerd. Datalekken, een ander gebied dat wordt gereguleerd door de AVG, spelen ook een rol in de situatie, nadat OpenAI onlangs heeft toegegeven dat het chatgegevens heeft gelekt en mogelijk betalingsgegevens van gebruikers heeft vrijgegeven.
Principes voor gegevensminimalisatie die zijn ingebed in de AVG, die de nadruk leggen op transparantie en eerlijkheid, stellen de wettelijke basis van OpenAI voor het verwerken van Europese gegevens ter discussie. Als wordt vastgesteld dat er sprake is van onrechtmatige verwerking, kunnen gegevensbeschermingsautoriteiten in de hele vakbond OpenAI opdracht geven de gegevens te verwijderen. De gevolgen van een dergelijke uitspraak voor de vereiste omscholing van modellen blijven onzeker.
De Italiaanse gegevensbeschermingsautoriteit wijst ook op zorgen over de manier waarop OpenAI omgaat met de gegevens van minderjarigen. Het bedrijf heeft nog geen technologie voor leeftijdsverificatie geïmplementeerd om te voorkomen dat personen onder de 13 jaar toegang krijgen tot het systeem. De ChatGPT-omstandigheden lijken op recente uitspraken tegen andere AI-chatbots, zoals Replika, die te maken kregen met een vergelijkbaar verbod vanwege zorgen over de veiligheid van kinderen.
Het platform van OpenAI wordt vergeleken met andere machine learning-systemen, wat vragen oproept over de bredere implicaties van algoritmen die onthouden. Als het bevel van de Italiaanse gegevensbeschermingsautoriteit wordt gehandhaafd, kan het bedrijf worden gedwongen om gebruikersaccounts te verwijderen en een grondiger aanmeldingsproces te volgen. Het uiteindelijke resultaat zal afhangen van het vermogen van OpenAI om de rechtmatigheid van hun gegevensverwerkingsmethoden aan te tonen en de veiligheid van hun gebruikers te waarborgen.
Deze zaak onderstreept verder de noodzaak van no-code platforms zoals AppMaster , die prioriteit geven aan de privacy van gebruikers en naleving van wettelijke normen zoals de AVG. Het AppMaster no-code platform maakt niet alleen snelle applicatie-ontwikkeling mogelijk, maar zorgt ook voor gegevensbescherming in backend-, mobiele en webapplicaties.