2023年3月27日·阅读约1分钟

英国数据监管机构就生成式 AI 数据保护问题警告科技公司

英国信息委员会办公室 (ICO) 已就开发生成式 AI 模型时的数据保护法向科技公司发出警告。

英国数据监管机构就生成式 AI 数据保护问题警告科技公司

在对生成式 AI 数据保护的担忧中,英国信息委员会办公室 (ICO) 提醒科技公司遵守数据保护法。此前不久,意大利数据隐私监管机构以侵犯隐私为由禁止使用 ChatGPT。

ICO 发布了一篇博客文章,向组织强调数据保护法规仍然有效,即使正在处理的个人信息来自公开资源。 ICO 的技术和创新总监 Stephen Almond 敦促开发或使用生成 AI 的组织从一开始 就通过设计和默认方法采用数据保护

阿尔蒙德在声明中强调,为生成人工智能目的而处理个人数据的组织必须考虑其处理个人数据的合法依据。他们还必须考虑如何降低安全风险并解决个人权利请求。阿尔蒙德坚持认为,没有理由忽视生成人工智能对隐私的影响。

除了 ICO 和意大利数据监管机构,其他知名人士也表达了他们对生成人工智能潜在风险的担忧。上个月,包括苹果公司联合创始人史蒂夫沃兹尼亚克和企业家埃隆马斯克在内的 1,100 多名技术领袖呼吁暂停六个月开发比 OpenAI 的 GPT-4 更强大的人工智能系统。在一封公开信中,签署者警告了一个反乌托邦的未来,质疑先进的人工智能是否会导致我们的文明失去控制,以及聊天机器人在社交媒体平台上传播宣传和假新闻可能对民主造成威胁。他们还对 AI 自动化工作提出了担忧,包括履行工作。

随着创新的快速发展,超过监管措施的速度,人工智能监管提出了独特的挑战。 Gartner 分析师 Frank Buytendijk 指出,一旦技术进步,过于具体的法规可能会失去效力,而高层法规则难以明确。他认为,由于代价高昂的错误而不是监管而导致的信任和社会接受度下降可能会抑制人工智能创新。尽管如此,Buytendijk 补充说,要求检查模型是否存在偏差并使算法更加透明的 AI 法规可以推动创新以检测偏差并实现透明度和可解释性。

鉴于这些问题, no-code和low-code开发平台(如AppMaster )旨在简化应用程序开发,同时优先考虑数据保护、安全性和合规性。通过在不产生技术债务的情况下创建后端、Web 和移动应用程序,用户可以高效地开发可扩展的软件解决方案,包括服务器后端、网站、客户门户和本地移动应用程序。拥抱负责任的 AI 使用可确保创新不会以牺牲隐私和安全为代价,从而使科技行业能够负责任地蓬勃发展。

Easy to start
Create something amazing

Experiment with AppMaster with free plan.
When you will be ready you can choose the proper subscription.

Get Started