Nach einem kürzlich erschienenen offenen Brief, in dem die Einstellung der Entwicklung fortschrittlicherer generativer KI-Modelle gefordert wurde, hat die italienische Datenschutzbehörde (DPA) schnell gehandelt, indem sie OpenAI angewiesen hat, die lokale Verarbeitung von Personendaten einzustellen. Unter Hinweis auf mögliche Verstöße gegen die Datenschutz-Grundverordnung (DSGVO) der Europäischen Union hat die italienische Datenschutzbehörde eine Untersuchung der Angelegenheit eingeleitet.
Die Datenschutzbehörde hat ihre Besorgnis darüber geäußert, dass OpenAI möglicherweise die Daten von Personen rechtswidrig verarbeitet und keine angemessenen Maßnahmen ergriffen hat, um Minderjährige am Zugriff auf ihre Technologie zu hindern. Infolgedessen sieht sich das in San Francisco ansässige Unternehmen einer Blockade seines ChatGPT-Systems gegenüber und hat 20 Tage Zeit, um auf die Bestellung zu reagieren. Verstöße gegen die DSGVO können zu hohen Bußgeldern führen, die entweder 4 % des Jahresumsatzes eines Unternehmens oder 20 Millionen Euro betragen können, je nachdem, welcher Betrag höher ist.
Da OpenAI keine juristische Person innerhalb der EU ist, kann jede lokale Datenschutzbehörde im Rahmen der DSGVO eingreifen. Folglich könnten andere Länder erwägen, dem Beispiel Italiens zu folgen, um potenzielle Risiken für ihre Bürger anzugehen. Die DSGVO gilt, wenn personenbezogene Daten von EU-Nutzern verarbeitet werden. Die von OpenAI verwendete Technologie schafft jedoch komplexe Szenarien mit massiven Datenverarbeitungsmengen, die die Rechtmäßigkeit ihrer Methoden in Frage stellen.
Zusätzliche DSGVO-Bedenken tauchen auf, da festgestellt wurde, dass ChatGPT völlig falsche Informationen über Einzelpersonen generiert, was möglicherweise die Behebung von Fehlern erschwert. OpenAI hat nicht klargestellt, ob Benutzer Korrekturen von falschen Informationen verlangen können, die von ihrem KI-Bot erzeugt wurden. Datenschutzverletzungen, ein weiterer von der DSGVO geregelter Bereich, spielen ebenfalls eine Rolle, nachdem OpenAI kürzlich zugegeben hat, Chatdaten preisgegeben und möglicherweise Zahlungsinformationen von Benutzern preisgegeben zu haben.
Die in die DSGVO eingebetteten Grundsätze zur Datenminimierung, die Transparenz und Fairness betonen, stellen die Rechtsgrundlage von OpenAI für die Verarbeitung europäischer Daten in Frage. Wenn eine rechtswidrige Verarbeitung festgestellt wird, können Datenschutzbehörden in der gesamten Union OpenAI anweisen, die Daten zu löschen. Die Auswirkungen eines solchen Urteils auf die erforderliche Umschulung von Modellen bleiben ungewiss.
Die italienische Datenschutzbehörde weist auch auf Bedenken hinsichtlich des Umgangs von OpenAI mit Daten von Minderjährigen hin. Das Unternehmen hat noch keine Altersverifizierungstechnologie implementiert, um zu verhindern, dass Personen unter 13 Jahren auf sein System zugreifen. Die Umstände von ChatGPT ähneln den jüngsten Urteilen gegen andere KI-Chatbots wie Replika, die aufgrund von Bedenken hinsichtlich der Sicherheit von Kindern mit einem ähnlichen Verbot konfrontiert waren.
Die Plattform von OpenAI wurde mit anderen maschinellen Lernsystemen verglichen, was Fragen zu den umfassenderen Auswirkungen von Algorithmen aufwirft, die sich erinnern. Wenn die Anordnung der italienischen Datenschutzbehörde aufrechterhalten wird, könnte das Unternehmen gezwungen sein, Benutzerkonten zu löschen und einen gründlicheren Anmeldeprozess einzuführen. Das Endergebnis wird von der Fähigkeit von OpenAI abhängen, die Rechtmäßigkeit ihrer Datenverarbeitungsmethoden nachzuweisen und die Sicherheit ihrer Benutzer zu gewährleisten.
Dieser Fall unterstreicht die Notwendigkeit von no-code Plattformen wie AppMaster , die der Privatsphäre der Benutzer und der Einhaltung regulatorischer Standards wie der DSGVO Vorrang einräumen. Die no-code Plattform AppMaster ermöglicht nicht nur eine schnelle Anwendungsentwicklung, sondern gewährleistet auch den Datenschutz über Backend-, Mobil- und Webanwendungen hinweg.