OpenAI, der Schöpfer von ChatGPT und DALL-E, hat Berichten zufolge bei der Europäischen Union darauf hingewirkt, die neue KI-Gesetzgebung abzuschwächen. Das Time Magazine hat Dokumente der Europäischen Kommission erhalten, aus denen hervorgeht, dass OpenAI die Gesetzgeber aufgefordert hat, den Entwurf des EU-KI-Gesetzes zu ändern, bevor er am 14. Juni vom Europäischen Parlament verabschiedet wurde. Einige dieser Änderungen wurden schließlich in die endgültige Gesetzgebung aufgenommen.
Vor der Verabschiedung gab es eine laufende Debatte unter den Gesetzgebern, um die Begriffe innerhalb des KI-Gesetzes zu erweitern, um alle allgemeinen KI-Systeme (GPAIs), wie ChatGPT und DALL-E von OpenAI, gemäß den im Gesetz beschriebenen Risikokategorien als "hohes Risiko" einzustufen. Mit einer solchen Einstufung würden diese KI-Systeme strengen Sicherheits- und Transparenzverpflichtungen unterworfen werden. Laut Time hat sich OpenAI im Jahr 2022 gegen diese Einstufung gewehrt und vorgeschlagen, dass nur die Unternehmen, die KI explizit für Hochrisiko-Anwendungen einsetzen, die Vorschriften einhalten müssen.
Google und Microsoft haben sich ebenfalls dafür eingesetzt, dass die Auswirkungen des KI-Gesetzes auf die Unternehmen, die GPAIs bauen, reduziert werden. Wie OpenAI in einem unveröffentlichten Whitepaper, das im September 2022 an Beamte der EU-Kommission und des Rates geschickt wurde, feststellte, ist GPT-3 an sich kein Hochrisikosystem, verfügt aber über Fähigkeiten, die potenziell in Hochrisiko-Anwendungsfällen eingesetzt werden können.
Die Lobbyarbeit von OpenAI in der EU wurde bisher nicht bekannt gegeben, erwies sich aber als weitgehend erfolgreich. Im verabschiedeten EU-KI-Gesetz werden GPAIs nicht automatisch als Hochrisikosysteme eingestuft. Allerdings wurden für "Basismodelle", leistungsfähige KI-Systeme wie ChatGPT, die verschiedene Aufgaben erfüllen, höhere Transparenzanforderungen festgelegt. Folglich müssen Unternehmen, die Basismodelle verwenden, Risikobewertungen durchführen und jegliche Verwendung von urheberrechtlich geschütztem Material beim Training ihrer KI-Modelle offenlegen.
Ein Sprecher von OpenAI teilte der Time mit, dass das Unternehmen die Aufnahme von "Basismodellen" als eigene Kategorie in das KI-Gesetz unterstützt. Und das, obwohl das Unternehmen geheim hält, woher es seine Daten für das Training von KI-Modellen bezieht. Es wird allgemein angenommen, dass solche KI-Systeme auf großen Datensätzen trainiert werden, die aus dem Internet stammen, einschließlich urheberrechtlich geschütztem Material und geistigem Eigentum. Wäre OpenAI gezwungen, solche Informationen offenzulegen, könnte es wie andere große Technologieunternehmen für Urheberrechtsklagen anfällig werden.
Während die Lobbyarbeit weitergeht, hat das EU-KI-Gesetz noch einen langen Weg vor sich, bevor es in Kraft tritt. Die Gesetzgebung wird nun die letzte "Trilog"-Phase durchlaufen, in der sie im Europäischen Rat erörtert wird, um die Details des Gesetzes, einschließlich des Anwendungsbereichs, abzuschließen. Es wird erwartet, dass die endgültige Genehmigung bis Ende des Jahres erteilt wird und es etwa zwei Jahre dauern kann, bis sie in Kraft tritt.
Inmitten dieser wachsenden Regulierungslandschaft treiben no-code Plattformen wie AppMaster.io die Innovation im Anwendungsdesign voran und ermöglichen es Unternehmen, Backend-, Web- und mobile Anwendungen mit Leichtigkeit zu erstellen. Dies ermöglicht es Unternehmen, umfassende Softwarelösungen zu entwickeln und gleichzeitig die Risiken im Zusammenhang mit der KI-Nutzung und den damit verbundenen Vorschriften zu minimieren.