2023年3月20日·阅读约1分钟

日益严格的 AI 监管:企业需要了解什么以及如何准备

随着欧盟最终确定其 AI 法案和全球 AI 监管格局的演变,企业必须为影响其运营的更严格的 AI 法规做好准备。

日益严格的 AI 监管:企业需要了解什么以及如何准备

随着监管框架的出现为人工智能技术的开发和实施提供明确的指导方针,人工智能 (AI) 和机器学习 (ML) 的格局即将发生重大转变。随着欧盟 (EU) 最终确定其 AI 法案和生成 AI 继续快速发展,全球企业应为更严格的 AI 法规做好准备,这些法规将影响其运营、产品和服务。

为了更好地了解在不久的将来对公司的 AI 监管可能是什么样子,我们可以研究欧盟 AI 法案的主要特征、AI 监管全球扩张的可能影响,以及组织应采取的准备策略时代变迁。

欧盟人工智能法案及其全球影响

欧盟人工智能法案计划于 2023 年 3 月底进行议会投票,预计将为人工智能监管制定全球标准,就像欧盟的通用数据保护条例 (GDPR) 在 2018 年所做的那样。如果遵守时间表,人工智能法案可能会在年底前通过。

尽管这是一项欧洲法规,但人工智能法案的影响可能会远远超出欧盟范围。所谓的“布鲁塞尔效应”将迫使在国际范围内运营的组织遵守该立法,而美国和其他独立领导的公司将发现遵守其规定符合他们的最大利益。最近的举措,例如加拿大的人工智能和数据法案提案和纽约市的自动化就业法规,进一步表明了在欧盟领土之外采用人工智能法规的趋势。

AI 法案下的 AI 系统风险类别

人工智能法案为人工智能系统提出了三个风险类别,每个类别都有自己的一套指导方针和后果:

  1. 不可接受的风险: 此类 AI 系统将被禁止。它们包括可能造成伤害的操纵系统、在公共场所用于执法的实时生物特征识别系统,以及所有形式的社会评分。
  2. 高风险: 此类别涵盖求职者扫描模型等 AI 系统,这些系统将受到特定法律要求的约束。
  3. 有限和最小的风险: 企业目前使用的许多人工智能应用程序(包括聊天机器人和人工智能库存管理工具)都属于这一类,并且在很大程度上将不受监管。但是,面向客户的有限风险应用程序将需要披露正在使用人工智能。

人工智能监管:期待什么

由于 AI 法案仍在起草中,其全球影响尚未确定,因此组织对 AI 监管的确切性质仍不确定。然而,其影响可能取决于行业、正在开发的模型类型及其所属的风险类别。

监管可能需要来自第三方的审查,第三方会针对预期目标人群对人工智能模型进行压力测试。这些测试将评估模型性能、误差幅度以及模型性质和用途的披露等因素。

对于拥有高风险人工智能系统的组织,人工智能法案已经提供了一系列要求,包括风险管理系统、数据治理和管理、技术文档、记录保存、透明度、人工监督、准确性、稳健性、网络安全、合格评定,在欧盟成员国政府注册,以及上市后监控系统。此外,人工智能行业可靠性测试(类似于汽车的电子检查)预计将变得更加普遍。

为人工智能法规做准备

在开发 ML 模型时优先考虑信任和风险缓解的 AI 领导者更有可能在新的 AI 法规面前取得成功。为确保为更严格的 AI 法规做好准备,组织应考虑以下步骤:

  1. 研究和教育团队了解潜在法规及其对贵公司现在和未来的影响。
  2. 审计现有和计划中的模型以确定它们的风险类别和对它们影响最大的相关法规。
  3. 开发并采用一个框架来设计负责任的人工智能解决方案。
  4. 考虑现有和未来模型的 AI 风险缓解策略,考虑意外行为。
  5. 建立 AI 治理和报告策略,确保在模型上线之前进行多次检查。

随着 AI 法案和即将出台的法规标志着 AI 设计进入新时代,道德和公平的 AI 不再只是“可有可无”,而是“必须有”。通过主动为这些变化做好准备,组织可以拥抱人工智能监管的世界,并充分利用这种快速发展的技术的全部潜力。此外,企业可以利用AppMaster等强大的no-code平台来加快 AI 开发,同时确保遵守新兴法规。

Easy to start
Create something amazing

Experiment with AppMaster with free plan.
When you will be ready you can choose the proper subscription.

Get Started