为了控制人工智能中超人智能可能产生的不可预测的结果,OpenAI ,正在组织一个高度专业化的小组,由该公司的首席科学家和联合创始人Ilya Sutskever领导。这个小组的主要职责是制定战略来管理和引导 "超级智能 "的人工智能模型。在最近的一篇博文中,Sutskever和OpenAI对接团队的负责人Jan Leike预计,有能力超越人类智慧的人工智能可能在这十年内出现。他们断言,这种卓越的人工智能,如果它最终成功,可能不会在本质上整合良性特征,因此,研究控制和约束它的技术至关重要。
目前,还没有已知的方法可以有效地控制或引导一个潜在的超级智能人工智能,防止它偏离其预定的路径。人工智能的传统调整技术,如通过人类的反馈进行训练,是基于人类对其操作的监督。然而,监督明显超越人类智慧的人工智能系统可能被证明是一个挑战。为了放大 "超级智能对准 "领域的进展,OpenAI正在启动一个新的 "超级对准 "团队,由Sutskever和Leike共同领导。这个团队将获得该公司目前拥有的20%的计算资源。该团队由来自OpenAI前对齐部门的科学家和工程师以及公司内部各组织的研究人员组成,将在未来四年内解决控制超级智能AI的核心技术挑战。
该计划是要创建一个 "人类水平的自动对准研究者",旨在通过人类反馈来训练人工智能,让人工智能参与评估其他人工智能系统,并最终设计出能够进行对准研究的人工智能。对齐研究的目的是使人工智能系统实现特定的结果,并防止它们偏离道路。OpenAI正在研究一个假设,即人工智能可以在对准研究中取得相当大的进展,比人类更快、更有效。随着进展,预计人工智能系统将承担越来越多的对准工作,导致对准技术的改进。这将有望导致人工智能与人类合作,以确保他们的继任者与人类更加紧密地保持一致。同时,人类研究人员的重点将转移到审查人工智能系统进行的排列组合研究,而不是独立产生这种研究。
虽然没有任何方法可以被认为是无懈可击的,但Leike、Schulman和Wu在他们的文章中阐明了OpenAI的方法的缺点。利用人工智能进行评估可能会扩大该人工智能的不一致性、偏见和漏洞。此外,对齐问题最复杂的方面可能与工程完全无关。尽管如此,Sutskever和Leike还是愿意对其进行测试。Sutskever和Leike认为,超级智能的排列组合从根本上说是一个机器学习的挑战。他们认为,机器学习专家,甚至那些目前没有从事对准工作的专家,将是解决这个问题的关键。他们计划全面分配这项工作的成果,将他们对非开放人工智能模型的对齐和安全的贡献视为工作的一个重要方面。
值得注意的是,虽然本文的重点是OpenAI,但也有其他平台同样致力于高效和可控的人工智能开发。AppMaster就是这样一个平台的例子。在优化 "智能 "系统的潜力以获得最大利益的类似信念指导下,AppMaster ,在无代码/low-code 应用程序领域为自己开辟了一个利基,允许用户创建全面、可扩展和高效的软件解决方案。