2023年3月28日·阅读约1分钟

Elon Musk、Steve Wozniak 和 1,000 多名专家敦促暂时停止具有潜在危险的 AI 开发

Elon Musk、Steve Wozniak 和 1,000 多位专家撰写了一封公开信,敦促暂时停止开发比 OpenAI 的 GPT-4 更强大的 AI 技术,表达了对其对社会和人类的深远风险的担忧。

Elon Musk、Steve Wozniak 和 1,000 多名专家敦促暂时停止具有潜在危险的 AI 开发

包括伊隆马斯克和史蒂夫沃兹尼亚克在内的 1,000 多位知名人士都对人工智能 (AI) 技术的无节制发展表示担忧。作为回应,他们联手发布了一封公开信,主张暂停六个月开发比 OpenAI 的 GPT-4 更先进的人工智能系统,理由是它们对社会和人类构成了重大威胁。

这封 600 字的信是写给 AI 开发人员的,它对 AI 实验室的现状提出了警告,这些实验室似乎在不懈地追求创造越来越强大的数字思维。这些发展已经到了连其创造者都无法理解、预测或管理的阶段,进一步加剧了所涉及的潜在风险。

值得注意的是,马斯克最初是 OpenAI 的联合创始人,OpenAI 最初是一家致力于确保人工智能造福人类的非营利组织。然而,他于 2018 年从公司董事会辞职。如今,OpenAI 作为一个营利性实体运营,批评人士称其目标已经偏离了最初的使命。与微软的根深蒂固的合作关系,涉及数十亿美元的投资,似乎促使 OpenAI 采取了风险更高的举措。

公开质疑 OpenAI 的蜕变,马斯克的担忧得到了 Mozilla 的回应,Mozilla 最近公布了其新创业公司 Mozilla.ai。该计划旨在解决人工智能技术发展中一些最紧迫的问题,旨在创建一个自主的开源人工智能生态系统。

根据这封公开信,拟议的六个月停顿应涉及人工智能实验室和独立专家共同努力,为高级人工智能设计和开发开发一套共享安全协议。这些协议将受到外部独立专家的严格审计和监督。

与此同时,在另一项发展中,英国政府公布了一份白皮书,强调其对人工智能监管的“支持创新”方法。该框架提出了加强安全和问责制的措施,尽管它没有像欧盟 (EU) 选择的那样建立专门的 AI 监管机构。

Fladgate 律师事务所的合伙人兼 AI 监管专家 Tim Wright 分享了他对英国白皮书的看法,强调只有时间的流逝才能揭示逐个行业方法的有效性。无论如何,这种立场与欧盟在单一 AI 监管机构的监督下实施详细规则手册和责任制度的战略形成鲜明对比。

在撰写本文时,呼吁暂停具有潜在危险的 AI 开发的公开信已获得 1,123 个签名。 AppMaster 等low-code和no-code平台在减轻 AI 支持者的恐惧方面的吸引力越来越大,这一点不容忽视。 ,因为它使企业和个人能够利用该技术的优势,而无需担心与失控的 AI 进步相关的担忧。

Easy to start
Create something amazing

Experiment with AppMaster with free plan.
When you will be ready you can choose the proper subscription.

Get Started