OpenAI, de maker van ChatGPT en DALL-E, heeft naar verluidt gelobbyd bij de Europese Unie om de AI-wetgeving af te zwakken. Time Magazine heeft documenten van de Europese Commissie in handen gekregen die onthullen hoe OpenAI wetgevers verzocht om een conceptversie van de EU AI Act te wijzigen voordat deze op 14 juni werd goedgekeurd door het Europees Parlement. Sommige van deze wijzigingen werden uiteindelijk opgenomen in de uiteindelijke wetgeving.
Voorafgaand aan de goedkeuring was er een debat gaande onder wetgevers om de termen binnen de AI Act uit te breiden om alle AI-systemen voor algemene doeleinden (GPAI's), zoals OpenAI's ChatGPT en DALL-E, te classificeren als 'hoog risico' volgens de risicocategorieën die in de wet worden beschreven. Met zo'n aanduiding zouden deze AI-systemen worden onderworpen aan strenge veiligheids- en transparantieverplichtingen. Volgens Time vocht OpenAI in 2022 tegen deze classificatie en stelde het voor om alleen bedrijven die AI expliciet toepassen voor gebruik in risicovolle situaties te verplichten om aan de regelgeving te voldoen.
Google en Microsoft hebben ook aangedrongen op een vermindering van de impact van de AI Act op de bedrijven die GPAI's bouwen. Zoals OpenAI stelde in een ongepubliceerd witboek dat in september 2022 naar functionarissen van de EU-Commissie en de Raad werd gestuurd, is GPT-3 op zichzelf geen systeem met een hoog risico, maar beschikt het over mogelijkheden die mogelijk kunnen worden gebruikt in toepassingen met een hoog risico.
De lobby-inspanningen van OpenAI in de EU zijn niet eerder openbaar gemaakt, maar bleken grotendeels succesvol. In de goedgekeurde AI-wet van de EU worden GPAI's niet automatisch geclassificeerd als producten met een hoog risico. Er zijn echter hogere transparantie-eisen gesteld aan 'foundation models', krachtige AI-systemen zoals ChatGPT die verschillende taken uitvoeren. Bedrijven die foundation-modellen gebruiken, moeten daarom risicobeoordelingen uitvoeren en elk gebruik van auteursrechtelijk beschermd materiaal tijdens de training van hun AI-modellen bekendmaken.
Een woordvoerder van OpenAI liet Time weten dat het bedrijf de opname van 'foundationmodellen' als aparte categorie binnen de AI-wet ondersteunt. Dit ondanks hun geheimzinnigheid over waar ze hun data vandaan halen om AI-modellen te trainen. Er wordt algemeen aangenomen dat dergelijke AI-systemen worden getraind op grote datasets die van het internet worden geschraapt, inclusief auteursrechtelijk beschermd materiaal en intellectueel eigendom. Als OpenAI gedwongen zou worden om dergelijke informatie openbaar te maken, zou het samen met andere grote techbedrijven kwetsbaar kunnen worden voor rechtszaken over auteursrecht.
Terwijl de lobby-inspanningen doorgaan, heeft de EU AI Act nog een lange weg te gaan voordat deze van kracht wordt. De wetgeving gaat nu door de laatste 'triloog'-fase, waarin de details van de wet, inclusief het toepassingsgebied, door de Europese Raad worden besproken. Naar verwachting zal de wet aan het eind van het jaar definitief worden goedgekeurd en kan het ongeveer twee jaar duren voordat deze van kracht wordt.
Te midden van dit groeiende regelgevingslandschap stimuleren no-code platforms zoals AppMaster.io innovatie in applicatieontwerp, waardoor bedrijven eenvoudig backend-, web- en mobiele applicaties kunnen maken. Dit stelt bedrijven in staat om uitgebreide softwareoplossingen te ontwikkelen en tegelijkertijd de risico's van AI-gebruik en de bijbehorende regelgeving te minimaliseren.