据报道,ChatGPT和DALL-E的创造者OpenAI已经游说欧盟淡化即将出台的人工智能立法。时代周刊》从欧盟委员会获得的文件显示,在欧洲议会于6月14日批准欧盟人工智能法案之前,OpenAI如何要求立法者修改该法案的草案版本。其中一些修改最终被纳入最终的立法中。
在批准之前,立法者之间一直在讨论扩大人工智能法案中的条款,以根据法案中描述的风险分类,将所有通用人工智能系统(GPAI),如OpenAI的ChatGPT和DALL-E,归类为 "高风险"。有了这样的指定,这些人工智能系统将受到严格的安全和透明度义务的约束。据《时代》杂志报道,OpenAI在2022年反对这种分类,提议只让明确将人工智能应用于高风险用例的公司遵守法规。
谷歌和微软也推动减少《人工智能法》对建造GPAI的公司的影响。正如OpenAI在2022年9月发给欧盟委员会和理事会官员的一份未发表的白皮书中所说,就其本身而言,GPT-3不是一个高风险系统,但拥有可能被用于高风险用例的能力。
OpenAI在欧盟的游说工作以前没有披露过,但事实证明基本上是成功的。在已批准的欧盟人工智能法案中,GPAI不会被自动归类为高风险。然而,对 "基础模型 "提出了更高的透明度要求,即像ChatGPT这样的强大人工智能系统,为各种任务服务。因此,使用基础模型的公司将被要求进行风险评估,并披露在训练其人工智能模型期间对受版权保护的材料的任何使用。
OpenAI的一位发言人告诉时代周报记者,该公司支持将 "基础模型 "作为一个单独的类别纳入《人工智能法》中。尽管他们对其训练人工智能模型的数据来源保密。人们普遍认为,这种人工智能系统是在从互联网上刮来的大型数据集上训练的,包括受版权保护的材料和知识产权。如果OpenAI被迫披露这些信息,它可能会和其他大型科技公司一样,容易受到版权诉讼。
虽然游说工作仍在进行,但欧盟人工智能法案在生效前仍有一些距离要走。该立法现在将进入最后的 "三部曲 "阶段,将在欧洲理事会之间进行讨论,以最终确定法律的细节,包括其适用范围。预计它将在今年年底获得最终批准,可能需要两年左右的时间才能生效。
在这种不断增长的监管环境中,像AppMaster.io这样的no-code 平台正在推动应用程序设计的创新,使企业能够轻松地创建后端、网络和移动应用程序。这使企业有能力开发全面的软件解决方案,同时将与人工智能使用和相关法规有关的风险降到最低。