Toenemende AI-regelgeving: wat bedrijven moeten weten en hoe ze zich moeten voorbereiden
Nu de EU haar AI-wet afrondt en het wereldwijde AI-regelgevingslandschap evolueert, moeten bedrijven zich voorbereiden op strengere AI-regelgeving die van invloed is op hun activiteiten.

Het landschap van kunstmatige intelligentie (AI) en machine learning (ML) staat op het punt een ingrijpende transformatie door te maken, nu er regelgevingskaders ontstaan die duidelijke richtlijnen bieden voor de ontwikkeling en implementatie van AI-technologieën. Nu de Europese Unie (EU) haar AI-wet afrondt en generatieve AI zich snel blijft ontwikkelen, moeten bedrijven over de hele wereld zich voorbereiden op strengere AI-regelgeving die van invloed zal zijn op hun activiteiten, producten en diensten.
Om beter te begrijpen hoe AI-regelgeving er in de nabije toekomst voor bedrijven uit kan zien, kunnen we de belangrijkste kenmerken van de EU AI-wet onderzoeken, de mogelijke effecten van de wereldwijde uitbreiding van AI-regelgeving en de strategieën die organisaties moeten volgen om zich hierop voor te bereiden veranderende tijden.
De AI-wet van de EU en de wereldwijde implicaties ervan
De AI-wet van de EU, gepland voor eind maart 2023, zal naar verwachting een wereldwijde norm voor AI-regelgeving vaststellen, net zoals de algemene verordening gegevensbescherming (AVG) van de EU in 2018 deed. Als de tijdlijn wordt aangehouden, zal de De AI-wet zou tegen het einde van het jaar kunnen worden aangenomen.
Hoewel het om een Europese verordening gaat, zal de impact van de AI-wet waarschijnlijk ver buiten de EU reiken. Het zogenaamde 'Brussels-effect' zal organisaties die op internationale schaal opereren, dwingen om zich aan de wetgeving te conformeren, terwijl Amerikaanse en andere onafhankelijk geleide bedrijven het in hun belang zullen vinden om zich aan de bepalingen ervan te houden. Recente stappen, zoals het voorstel van Canada voor de Artificial Intelligence & Data Act en de geautomatiseerde arbeidsregulering in New York City, duiden verder op deze trend om AI-regelgeving buiten het grondgebied van de EU aan te nemen.
Risicocategorieën AI-systeem Onder de AI-wet
De AI-wet stelt drie risicocategorieën voor AI-systemen voor, elk met eigen richtlijnen en consequenties:
- Onaanvaardbaar risico: AI-systemen in deze categorie worden verboden. Ze omvatten manipulatieve systemen die schade kunnen aanrichten, real-time biometrische identificatiesystemen die in openbare ruimtes worden gebruikt voor wetshandhaving, en alle vormen van sociale scores.
- Hoog risico: deze categorie omvat AI-systemen zoals scanmodellen voor sollicitanten, waarvoor specifieke wettelijke vereisten gelden.
- Beperkt en minimaal risico: veel van de AI-applicaties die momenteel door bedrijven worden gebruikt (waaronder chatbots en door AI aangedreven tools voor voorraadbeheer) vallen onder deze categorie en zullen grotendeels ongereguleerd blijven. Voor klantgerichte toepassingen met een beperkt risico is echter openbaarmaking vereist dat AI wordt gebruikt.
AI-regelgeving: wat te verwachten
Aangezien de AI-wet nog in ontwerp is en de wereldwijde effecten ervan onbepaald zijn, blijft de exacte aard van AI-regulering voor organisaties onzeker. De impact zal echter waarschijnlijk afhangen van de branche, het type model dat wordt ontwikkeld en de risicocategorie waartoe het behoort.
Regelgeving kan controle door een derde partij met zich meebrengen die AI-modellen stresstesten tegen de beoogde doelgroep. Deze tests beoordelen factoren zoals modelprestaties, foutmarges en openbaarmaking van de aard en het gebruik van het model.
Voor organisaties met AI-systemen met een hoog risico heeft de AI-wet al een lijst met vereisten opgeleverd, waaronder risicobeheersystemen, gegevensbeheer en -beheer, technische documentatie, archivering, transparantie, menselijk toezicht, nauwkeurigheid, robuustheid, cyberbeveiliging, conformiteitsbeoordeling , registratie bij regeringen van de EU-lidstaten en controlesystemen na het in de handel brengen. Bovendien wordt verwacht dat betrouwbaarheidstests in de AI-industrie (vergelijkbaar met e-checks voor auto's) op grotere schaal zullen worden toegepast.
Voorbereiding op AI-regelgeving
AI-leiders die prioriteit geven aan vertrouwen en risicobeperking bij het ontwikkelen van ML-modellen, hebben meer kans van slagen in het licht van nieuwe AI-regelgeving. Om gereed te zijn voor strengere AI-regelgeving, zouden organisaties de volgende stappen moeten overwegen:
- Onderzoek en onderwijs teams over mogelijke regelgeving en hun impact op uw bedrijf nu en in de toekomst.
- Audit bestaande en geplande modellen om hun risicocategorieën en de bijbehorende regelgeving te bepalen die hen het meest zal beïnvloeden.
- Ontwikkel en adopteer een raamwerk voor het ontwerpen van verantwoorde AI-oplossingen.
- Denk na over de AI-risicobeperkingsstrategie voor zowel bestaande als toekomstige modellen, rekening houdend met onverwachte acties.
- Stel een AI-governance- en rapportagestrategie op en zorg voor meerdere controles voordat een model live gaat.
Met de AI-wet en aanstaande regelgeving die een nieuw tijdperk voor AI-ontwerp inluidt, is ethische en eerlijke AI niet langer alleen een 'nice to have' maar een 'must have'. Door zich proactief op deze veranderingen voor te bereiden, kunnen organisaties de wereld van AI-regelgeving omarmen en het volledige potentieel van deze snel evoluerende technologie benutten. Bovendien kunnen bedrijven krachtige no-code -platforms zoals AppMaster gebruiken om hun AI-ontwikkelingen te versnellen en tegelijkertijd te zorgen voor naleving van opkomende regelgeving.


