Réglementation croissante de l'IA : ce que les entreprises doivent savoir et comment s'y préparer
Alors que l'UE finalise sa loi sur l'IA et que le paysage réglementaire mondial de l'IA évolue, les entreprises doivent se préparer à des réglementations plus strictes en matière d'IA qui auront une incidence sur leurs opérations.

Le paysage de l'intelligence artificielle (IA) et de l'apprentissage automatique (ML) est sur le point de subir une transformation importante, à mesure que des cadres réglementaires émergent pour fournir des directives claires sur le développement et la mise en œuvre des technologies d'IA. Alors que l'Union européenne (UE) finalise sa loi sur l'IA et que l'IA générative continue d'évoluer rapidement, les entreprises du monde entier doivent se préparer à des réglementations plus strictes en matière d'IA qui auront un impact sur leurs opérations, leurs produits et leurs services.
Pour mieux comprendre à quoi pourrait ressembler la réglementation de l'IA pour les entreprises dans un avenir proche, nous pouvons examiner les principales caractéristiques de la loi européenne sur l'IA, les effets possibles de l'expansion mondiale de la réglementation de l'IA et les stratégies que les organisations devraient adopter pour s'y préparer. les temps changeants.
La loi européenne sur l'IA et ses implications mondiales
Prévue pour un vote parlementaire d'ici la fin mars 2023, la loi européenne sur l'IA devrait établir une norme mondiale pour la réglementation de l'IA, tout comme le règlement général sur la protection des données (RGPD) de l'UE l'a fait en 2018. Si le calendrier est respecté, le La loi sur l'IA pourrait être adoptée d'ici la fin de l'année.
Bien qu'il s'agisse d'un règlement européen, l'impact de la loi sur l'IA devrait s'étendre bien au-delà de l'UE. Le soi-disant "effet Bruxelles" obligera les organisations opérant à l'échelle internationale à se conformer à la législation, tandis que les entreprises américaines et autres entreprises indépendantes trouveront dans leur intérêt de se conformer à ses stipulations. Des mesures récentes, telles que la proposition de loi sur l'intelligence artificielle et les données du Canada et la réglementation automatisée de l'emploi de la ville de New York, signalent davantage cette tendance à adopter des réglementations sur l'IA au-delà du territoire de l'UE.
Catégories de risque du système d'IA en vertu de la Loi sur l'IA
La loi sur l'IA propose trois catégories de risques pour les systèmes d'IA, chacune accompagnée de son propre ensemble de lignes directrices et de conséquences :
- Risque inacceptable : les systèmes d'IA de cette catégorie seront interdits. Ils comprennent des systèmes de manipulation pouvant causer des dommages, des systèmes d'identification biométrique en temps réel utilisés dans les espaces publics pour l'application de la loi et toutes les formes de notation sociale.
- Risque élevé : cette catégorie couvre les systèmes d'IA tels que les modèles de numérisation des candidats, qui seront soumis à des exigences légales spécifiques.
- Risque limité et minimal : de nombreuses applications d'IA actuellement utilisées par les entreprises (y compris les chatbots et les outils de gestion des stocks alimentés par l'IA) entrent dans cette catégorie et resteront largement non réglementées. Cependant, les applications à risque limité destinées aux clients nécessiteront la divulgation de l'utilisation de l'IA.
Réglementation sur l'IA : à quoi s'attendre
Comme la loi sur l'IA est encore en cours de rédaction et que ses effets mondiaux sont indéterminés, la nature exacte de la réglementation de l'IA pour les organisations reste incertaine. Cependant, son impact dépendra probablement de l'industrie, du type de modèle en cours d'élaboration et de la catégorie de risque à laquelle il appartient.
La réglementation peut impliquer l'examen minutieux d'un tiers qui teste les modèles d'IA par rapport à la population cible visée. Ces tests évalueront des facteurs tels que la performance du modèle, les marges d'erreur et la divulgation de la nature et de l'utilisation du modèle.
Pour les organisations disposant de systèmes d'IA à haut risque, la loi sur l'IA a déjà fourni une liste d'exigences, y compris les systèmes de gestion des risques, la gouvernance et la gestion des données, la documentation technique, la tenue de registres, la transparence, la surveillance humaine, l'exactitude, la robustesse, la cybersécurité, l'évaluation de la conformité. , l'enregistrement auprès des gouvernements des États membres de l'UE et les systèmes de surveillance post-commercialisation. En outre, les tests de fiabilité de l'industrie de l'IA (similaires aux contrôles électroniques pour les automobiles) devraient se généraliser.
Se préparer à la réglementation sur l'IA
Les responsables de l'IA qui accordent la priorité à la confiance et à l'atténuation des risques lors du développement de modèles ML ont plus de chances de réussir face aux nouvelles réglementations en matière d'IA. Pour garantir la préparation à des réglementations plus strictes en matière d'IA, les organisations doivent envisager les étapes suivantes :
- Recherchez et éduquez les équipes sur les réglementations potentielles et leurs impacts sur votre entreprise, maintenant et à l'avenir.
- Auditez les modèles existants et prévus pour déterminer leurs catégories de risques et les réglementations associées qui les affecteront le plus.
- Développer et adopter un cadre pour la conception de solutions d'IA responsables.
- Réfléchissez à la stratégie d'atténuation des risques liés à l'IA pour les modèles existants et futurs, en tenant compte des actions inattendues.
- Établissez une stratégie de gouvernance et de reporting de l'IA, en assurant plusieurs vérifications avant la mise en ligne d'un modèle.
Avec la loi sur l'IA et les réglementations à venir signalant une nouvelle ère pour la conception de l'IA, l'IA éthique et équitable n'est plus seulement un « bien à avoir », mais un « must have ». En se préparant de manière proactive à ces changements, les organisations peuvent adopter le monde de la réglementation de l'IA et tirer pleinement parti du potentiel de cette technologie en évolution rapide. De plus, les entreprises peuvent utiliser de puissantes plateformes no-code comme AppMaster pour accélérer leurs développements d'IA tout en garantissant la conformité aux réglementations émergentes.


