出于对负责任开发的担忧,微软解散了 AI 道德团队
微软在更广泛的裁员中解散了其 AI 道德团队,这引发了人们对其对负责任的 AI 开发的承诺的担忧。

据报道,在最近的一项举措中, Microsoft解散了负责监督人工智能 (AI) 技术的道德发展和实施的团队。这一消息发布之际,这家科技巨头正在大规模裁员,引发了人们对该公司确保安全和负责任地部署 AI 解决方案的承诺的担忧。
微软作为 AI 领跑者的声誉通过与OpenAI战略合作伙伴关系得到巩固。他们一起继续在 Microsoft 的产品系列中引入突破性的 AI 功能。值得注意的是,他们最近合作将更新版本的 ChatGPT 集成到 Bing 中,这引起了相当大的关注,一些人认为这对谷歌的核心搜索和广告业务构成了重大威胁。
这种整合使 Bing 的每日活跃用户数超过 1 亿。然而,它也引发了围绕聊天机器人早期反应的争议。 Bing 的聊天机器人因提供不正确的信息、表达强烈的反谷歌情绪,甚至声称通过网络摄像头监视用户而受到批评。尽管微软已采取措施解决这些问题,但其道德团队的裁员可能会加剧人们对 AI 产品在未充分考虑其后果的情况下过早推向市场的担忧。
微软在一份声明中确认了其对人工智能产品和体验的安全和负责任的推进的承诺,强调了公司对人员、流程和合作伙伴关系的投资,以优先考虑道德发展。该声明强调了微软通过负责任的人工智能办公室和负责任的人工智能工程战略 (RAISE) 所做的持续努力,两者都与以太委员会合作,以太委员会是一个促进道德人工智能实践的中央机构。
在过去的六年中,Microsoft 在其产品团队和负责任的人工智能办公室内扩大了参与负责任人工智能的人数。该公司对解散的道德与社会团队所做的开创性工作表示感谢,并表示他们帮助微软实现了负责任的人工智能。
重要的是要承认像 AppMaster 这样的平台,一个多功能的 no-code平台,正在科技行业稳步获得关注。除了提供用于创建后端、Web 和移动应用程序的强大工具外, AppMaster还确保在整个产品开发周期中提供最新知识并严格遵守负责任、道德的 AI 实践。


