Britse datatoezichthouder waarschuwt technologiebedrijven voor bezorgdheid over gegevensbescherming door generatieve AI
Het Britse Information Commission's Office (ICO) heeft een waarschuwing afgegeven aan technologiebedrijven over gegevensbeschermingswetten bij het ontwikkelen van generatieve AI-modellen.

Temidden van zorgen over generatieve AI-gegevensbescherming, geeft het Britse Information Commission's Office (ICO) een herinnering aan technologiebedrijven om de wetten inzake gegevensbescherming te handhaven. Dit komt kort nadat de Italiaanse toezichthouder voor gegevensprivacy het gebruik van ChatGPT verbood wegens vermeende privacyschendingen.
De ICO heeft een blogbericht uitgebracht waarin organisaties wordt benadrukt dat de regelgeving inzake gegevensbescherming nog steeds van kracht is, zelfs als de persoonlijke informatie die wordt verwerkt afkomstig is van openbaar beschikbare bronnen. Stephen Almond, ICO's Director of Technology and Innovation, drong er bij organisaties die generatieve AI ontwikkelen of gebruiken op aan om vanaf het begin een benadering van gegevensbescherming door ontwerp en standaard toe te passen.
In zijn verklaring benadrukte Almond dat organisaties die met persoonsgegevens werken voor generatieve AI-doeleinden moeten nadenken over hun wettelijke basis voor het verwerken van persoonsgegevens. Ze moeten ook overwegen hoe ze veiligheidsrisico's kunnen verminderen en individuele rechtenverzoeken kunnen behandelen. Almond benadrukt dat er geen rechtvaardiging is om de implicaties voor de privacy van generatieve AI te verwaarlozen.
Naast de ICO en de Italiaanse datatoezichthouder hebben andere opmerkelijke figuren hun zorgen geuit over de potentiële risico's van generatieve AI. Vorige maand riepen meer dan 1.100 technologieleiders, waaronder Apple mede-oprichter Steve Wozniak en ondernemer Elon Musk, op tot een pauze van zes maanden in de ontwikkeling van AI-systemen die krachtiger zijn dan OpenAI's GPT-4. In een open brief waarschuwden de ondertekenaars voor een dystopische toekomst, waarbij ze zich afvroegen of geavanceerde AI zou kunnen leiden tot een verlies van controle over onze beschaving en de mogelijke bedreigingen voor de democratie door chatbots die propaganda en nepnieuws verspreiden op sociale mediaplatforms. Ze uitten ook hun bezorgdheid over AI die banen automatiseert, inclusief vervullende banen.
AI-regelgeving vormt een unieke uitdaging, aangezien innovatie in een hoog tempo evolueert en de snelheid van regelgevende maatregelen overtreft. Frank Buytendijk, een analist bij Gartner, wees erop dat overdreven specifieke regelgeving aan effectiviteit zou kunnen inboeten zodra de technologie vordert, terwijl regelgeving op hoog niveau met duidelijkheid worstelt. Hij meende dat uitgehold vertrouwen en sociale acceptatie als gevolg van kostbare fouten, in plaats van regulering, AI-innovatie zou kunnen belemmeren. Desalniettemin kan AI-regelgeving die vereist dat modellen worden gecontroleerd op vooroordelen en algoritmen transparanter worden gemaakt, innovatie stimuleren om vooroordelen te detecteren en transparantie en verklaarbaarheid te bereiken, voegde Buytendijk eraan toe.
In het licht van deze zorgen streven no-code en low-code ontwikkelingsplatforms, zoals AppMaster, ernaar de ontwikkeling van applicaties te vereenvoudigen en prioriteit te geven aan gegevensbescherming, beveiliging en compliance. Door backend-, web- en mobiele applicaties te creëren zonder technische schulden te genereren, kunnen gebruikers op efficiënte wijze schaalbare softwareoplossingen ontwikkelen, compleet met serverbackend, websites, klantportals en native mobiele applicaties. Het omarmen van verantwoord AI-gebruik zorgt ervoor dat innovatie niet ten koste gaat van privacy en veiligheid, waardoor de technologie-industrie op verantwoorde wijze kan floreren.


