Die britische Datenaufsichtsbehörde warnt Technologieunternehmen vor Datenschutzbedenken bezüglich generativer KI
Das britische Information Commission’s Office (ICO) hat Technologieunternehmen vor Datenschutzgesetzen bei der Entwicklung generativer KI-Modelle gewarnt.

Angesichts der Bedenken hinsichtlich des Datenschutzes bei generativer KI erinnert das britische Information Commission’s Office (ICO) Technologieunternehmen daran, die Datenschutzgesetze einzuhalten. Dies geschieht kurz nachdem die italienische Datenschutzbehörde die Verwendung von ChatGPT wegen angeblicher Datenschutzverletzungen verboten hat.
Das ICO veröffentlichte einen Blogbeitrag, in dem Organisationen betont wurde, dass die Datenschutzbestimmungen immer noch in Kraft sind, selbst wenn die verarbeiteten personenbezogenen Daten aus öffentlich zugänglichen Quellen stammen. Stephen Almond, Director of Technology and Innovation bei ICO, forderte Organisationen, die generative KI entwickeln oder einsetzen, auf, von Anfang an einen Data Protection by Design and by Default- Ansatz zu verfolgen.
In seiner Erklärung betonte Almond, dass Organisationen, die mit personenbezogenen Daten für generative KI-Zwecke arbeiten, ihre Rechtsgrundlage für die Verarbeitung personenbezogener Daten berücksichtigen müssen. Sie müssen auch überlegen, wie sie Sicherheitsrisiken reduzieren und individuelle Rechteanfragen bearbeiten können. Almond besteht darauf, dass es keinen Grund gibt, die Auswirkungen der generativen KI auf den Datenschutz zu vernachlässigen.
Neben dem ICO und der italienischen Datenregulierungsbehörde haben andere namhafte Persönlichkeiten ihre Besorgnis über die potenziellen Risiken der generativen KI geäußert. Im vergangenen Monat forderten über 1.100 Technologieführer, darunter Apple-Mitbegründer Steve Wozniak und Unternehmer Elon Musk, eine sechsmonatige Pause bei der Entwicklung von KI-Systemen, die leistungsfähiger sind als GPT-4 von OpenAI. In einem offenen Brief warnen die Unterzeichner vor einer dystopischen Zukunft und stellten die Frage, ob fortgeschrittene KI zu einem Kontrollverlust über unsere Zivilisation und möglichen Bedrohungen der Demokratie durch Chatbots führen könnte, die Propaganda und Fake News auf Social-Media-Plattformen verbreiten. Sie äußerten auch Bedenken hinsichtlich der Automatisierung von Jobs durch KI, einschließlich erfüllender.
Die KI-Regulierung stellt eine einzigartige Herausforderung dar, da die Innovation in einem rasanten Tempo voranschreitet und die Geschwindigkeit regulatorischer Maßnahmen übertrifft. Frank Buytendijk, Analyst bei Gartner, wies darauf hin, dass übermäßig spezifische Vorschriften mit fortschreitender Technologie an Wirksamkeit verlieren könnten, während hochrangige Vorschriften mit Klarheit zu kämpfen haben. Er war der Meinung, dass erodiertes Vertrauen und soziale Akzeptanz, die eher aus kostspieligen Fehlern als aus Regulierung resultieren, die KI-Innovation hemmen könnten. Nichtsdestotrotz kann eine KI-Regulierung, die verlangt, dass Modelle auf Verzerrungen überprüft und Algorithmen transparenter gemacht werden, Innovationen vorantreiben, um Verzerrungen zu erkennen und Transparenz und Erklärbarkeit zu erreichen, fügte Buytendijk hinzu.
Angesichts dieser Bedenken zielen no-code und low-code Entwicklungsplattformen wie AppMaster darauf ab, die Anwendungsentwicklung zu vereinfachen und gleichzeitig Datenschutz, Sicherheit und Compliance zu priorisieren. Durch die Erstellung von Backend-, Web- und mobilen Anwendungen ohne technische Schulden zu erzeugen, können Benutzer effizient skalierbare Softwarelösungen komplett mit Server-Backend, Websites, Kundenportalen und nativen mobilen Anwendungen entwickeln. Die verantwortungsvolle Nutzung von KI stellt sicher, dass Innovationen nicht zu Lasten von Datenschutz und Sicherheit gehen, sodass die Technologiebranche verantwortungsbewusst gedeihen kann.


