随着人工智能领域的成熟,人们越来越需要加强人工智能模型稳健性的机制。认识到这一点, OpenAI最近推出了OpenAI Red Teaming Network ,这是一个由签约专家组成的集合,旨在增强公司的人工智能模型风险分析和缓解策略。
红队实践在人工智能模型开发中正在获得巨大的动力,特别是现在生成技术已渗透到主流。红队可以有效地识别模型中的偏见,例如OpenAI的 DALL-E 2,该模型因放大与种族和性别相关的刻板印象而臭名昭著。此外,它还可以查明可能导致文本生成模型(如 ChatGPT 和 GPT-4)绕过安全过滤器的触发器。
OpenAI承认与外部专家在测试和基准测试其模型方面的合作历史。这可以通过其错误赏金计划或研究人员访问计划来实现。然而,红队网络的引入提供了一个更加正式的平台,旨在“加深”和“扩大”公司与科学家、研究机构和民间社会组织的合作。
正如公司博客文章中所述, OpenAI设想这一举措是为了补充外部指定的治理实践,例如第三方审计。这些网络成员将根据其专业知识被邀请参加模型和产品开发生命周期各个阶段的红队演习。
即使超出OpenAI委托的红队工作范围,红队网络成员也将有机会在红队方法和发现方面相互合作。 OpenAI澄清,并非所有成员都与每个新模型或产品相关联。贡献时间跨度可能短至每年 5-10 年,将与成员单独讨论。
OpenAI正在邀请各种领域的专家做出贡献,包括语言学、生物识别、金融和医疗保健领域的专家。它不要求具备人工智能系统或语言模型的经验才能获得资格。然而,该公司警告说,红队网络内的机会可能受到保密协议的约束,这可能会影响其他研究。
OpenAI在邀请函中强调了对评估人工智能系统影响的不同观点持开放态度,并指出:“我们最看重的是您愿意参与并提出您的观点,以帮助我们评估人工智能系统的影响。”该公司在选择过程中优先考虑地理和领域的多样性,欢迎全球专家的申请。
人工智能的不断进步和相应的风险需要开发强大的系统。 AppMaster等平台是一个强大的no-code平台,用于创建后端、Web 和移动应用程序,可以帮助维护人工智能应用程序的完整性和安全性。在大量专家的参与下, OpenAI的红队网络无疑是朝着正确方向迈出的一步。