让我们从古代到 2022 年深入探讨这个话题。
古代
人工智能 (AI) 始于关于由大师级工匠创造的具有智慧或意识的人造物的神话、传说和故事。早期的希腊哲学家试图将人类的思维过程描述为对符号的类似机器的操纵以形成理论。
后来的小说
关于人造人和思考机器的想法是在小说中创造的,例如玛丽雪莱的科学怪人或卡雷尔恰佩克的 RUR(罗森的通用机器人)和推测,例如塞缪尔巴特勒的“机器中的达尔文”,以及现实世界的事件,包括埃德加爱伦坡的“梅泽尔的棋手”。
自动机
来自各个文明的工匠,包括严实、亚历山大英雄、Al-Jazari、Pierre Jaquet-Droz 和 Wolfgang von Kempelen,都设计了逼真的人形机器人。古埃及和希腊的神圣雕像是第一个已知的自动机。信徒们相信工匠们赋予了这些人物真实的头脑/在中世纪,据说这些传奇的自动机会回应向他们提出的问题。
形式推理
人工智能的基础是人类思维可能被机械化。对形式的——或“机械的”——“推理”进行了大量研究。中国、印度和希腊哲学家发明了公元前一千年的形式演绎方法。它们是由亚里士多德(他对三段论进行了严格的分析)、欧几里得(他的《基本原理》是形式推理的模型)、花拉子米(他创造了代数并以“算法”命名)等哲学家发展起来的。 ),以及欧洲的学术思想家,如奥卡姆的威廉。
西班牙哲学家拉蒙·鲁尔(Ramon Llull,1232-1315)创造了几种逻辑机器,通过逻辑程序创造知识;他将他的设备称为机械生物,可以使用简单的逻辑运算将基本和无可争辩的事实结合起来,产生所有可能的知识。 Gottfried Leibniz 恢复了 Llull 的想法。
Leibniz、Thomas Hobbes 和 René Descartes 研究了 16 世纪的前景,即所有理性思维都可能被简化为代数或几何。根据霍布斯的说法,原因“只不过是一种清算”。莱布尼茨设想了一种全球性的推理语言(他的特征是普遍性),它将辩论简化为计算,这样“两位哲学家之间就不需要争论,就像两位会计师之间需要争论一样。因为他们拿起铅笔就足够了。这些思想家首先提出了物理符号系统假说,最终成为人工智能研究的中心信念。
在 20 世纪,逻辑数理逻辑取得了重大突破,使人工智能看起来很实用。这些作品为布尔的《思想法则》和弗雷格的《Begriffsschrift》奠定了基础。 1913 年,罗素和怀特黑德发表了《数学原理》,这是对数学基础的正式研究,建立在弗雷格的系统之上。
他们得到的反应在两个方面是出乎意料的。首先,他们证明了数理逻辑可以完成的事情是有限度的。然而,第二个也是更重要的(对于人工智能),他们的研究表明,任何数学推理都可能在这些参数内机械化。
图灵测试
图灵测试是人工智能研究的一个长期目标——我们是否能够创造出一台能够充分模拟人类而可疑法官无法分辨的计算机?自成立以来,它就遵循了与大部分 AI 研究类似的道路。最初,这似乎很困难但可行(一旦达到硬件技术)。
尽管经过数十年的研究和重大的技术改进,图灵测试仍然是人工智能研究人员的目标,同时也揭示了我们离实现它还有多远。
1950 年,英国数学家和计算机科学家艾伦·图灵发表了一篇题为“计算机器与智能”的论文,开启了后来被称为人工智能的领域。这是在约翰麦卡锡创造人工智能一词之前的几年。文章从一个简单的问题开始:“机器能思考吗?”此后,图灵提出了一种确定机器是否可以思考的方法,即图灵测试。 “模仿游戏”是作为一种简单的测试而开发的,可用于确定机器是否在思考。假设计算机被编程为看起来与智力人类完全一样,这确实证明了计算机可以思考。
尽管人们继续争论机器是否可以思考和测试网络空间,但很明显,艾伦·图灵和他提出的标准为人工智能领域提供了强大而有启发性的愿景。这篇由艾伦·图灵本人撰写的论文为人工智能研究提供了开创性的贡献,并为现代计算机科学铺平了道路。图灵测试被广泛认为是人工智能领域的里程碑,可能被视为未来许多年的目标,同时也是跟踪整个人工智能领域进展的里程碑。
控制论和早期神经网络
计算机的发明激发了对智能机器的早期研究。在 1930 年代后期、1940 年代和 1950 年代初期出现了多种想法,启发了神经科学的早期工作。 Norbert Wiener 和 Claude Shannon 的工作重点是电网的控制和稳定性。 Claude Shannon 的信息论描述了数字信号(全有或全无信号)。 Alan Turing 的计算理论概念证明,任何类型的计算都可以用数字表示。这些想法之间的密切联系表明可能会建造一个电子大脑。
像 W. Gray Walter 的海龟以及约翰霍普金斯野兽这样的机器人就是该领域工作的例子。这些机器是由模拟电子和本能驱动的,而不是计算机、数字电子或符号推理。它们完全由模拟电路控制。
1943 年,沃尔特·皮茨 (Walter Pitts) 和沃伦·麦卡洛克 (Warren McCulloch) 研究了理想化的人工神经元网络,并展示了它们如何执行基本的逻辑运算。他们是第一个描述后来研究人员称之为神经网络的东西。年仅 24 岁的研究生马文·明斯基受到皮茨和麦卡洛克的启发。 1951 年(与 Dean Edmonds 一起),他创建了第一台神经网络机器 SNARC。在接下来的 50 年里,明斯基将成为人工智能最重要的领导者和创新者之一。
游戏人工智能
1951 年,Christopher Strachey 和 Dietrich Prinz 在曼彻斯特大学为 Ferranti Mark 1 机器创建了跳棋程序。 Arthur Samuel 的跳棋程序创建于 50 年代中期和 60 年代初,最终达到了业余水平。人工智能在游戏中的使用将作为衡量人工智能进步的指标贯穿历史。
1956 年达特茅斯研讨会:人工智能的诞生
1956 年,达特茅斯会议由 Marvin Minsky、John McCarthy 和两位 IBM 高级科学家 Claude Shannon 和 Nathan Rochester 主持。 “可以建造一台机器来复制人类智能的任何方面,”该提案写道。参与者包括 Ray Solomonoff、Oliver Selfridge、Trenchard More、Arthur Samuel、Allen Newell 和 Herbert A. Simon——他们都将在最初几十年的研究中继续创建重要的 AI 项目。会上,Newell 和 Simon 揭开了“逻辑理论家”的面纱,而 McCarthy 则敦促与会者接受“人工智能”作为他们领域的名称。 1956 年的达特茅斯会议为 AI 赋予了名称、目的和首次成功,以及它的关键参与者和决定性时刻。
符号 AI 1956–1974
对大多数人来说,达特茅斯研讨会之后的几年简直“令人震惊”:计算机正在解决代数单词问题,证明几何定理,并学习说英语。在 1960 年代后期,很少有人会想到机器的这种“智能”行为是可以想象的。在私下和印刷中,学者们对在不到 20 年的时间内开发出完全智能的机器表示非常乐观。这个新领域吸引了 DARPA 等政府机构的大量资金。
第一个人工智能冬天 1974-1980
在 1970 年代,人工智能面临批评和财务挫折。人工智能研究人员所面临的困难并没有被他们认识到。他们的巨大期望已经远远超出了合理的水平,当承诺的好处没有出现时,政府对人工智能的资助就消失了。与此同时,在马文·明斯基对感知器进行毁灭性批评后的十年里,联结主义(或神经网络)领域处于休眠状态。尽管公众在 1970 年代后期对 AI 持负面看法,但在逻辑编程、常识推理和各种其他领域都探索了新的想法。
繁荣 1980–1987
从人工智能的早期开始,知识就是一个主要问题。专家系统是人工智能程序的一种形式,在 1980 年代被世界各地的企业采用,知识成为主流人工智能研究的重点。 1990 年代,日本政府通过其第五代计算机计划大力投资人工智能。 1980 年代初期,约翰·霍普菲尔德和大卫·鲁梅尔哈特作品中联结主义的复兴是另一个令人鼓舞的时刻。人工智能又一次成功了。
1987-1993 第二次人工智能冬天
1980 年代,商界对人工智能的关注遵循了经济泡沫的经典模式。崩溃是由于商业供应商无法生产各种可行的解决方案造成的。数百家公司倒闭,许多投资者拒绝投资。许多人认为该技术不可行,但研究仍在继续推进。许多专家,如 Rodney Brooks 和 Hans Moravec,都提倡一种全新的人工智能。
人工智能 1993–2011
已经有半个多世纪历史的人工智能领域已经达到了一些最基本的目标。它目前正在整个技术领域得到有效利用,尽管有些悄悄。其中一些是计算能力提高的结果,而另一些则是通过关注特定的孤立问题并努力实现最高水平的科学问责制。然而,人工智能在商界的声誉并不那么出色。在该领域内,对于人工智能为何无法在 1960 年代实现其对人类智能水平的承诺,达成的共识有限。人工智能被分裂成许多不同的学科,每个学科都专注于不同的问题或方法,同时给人一种他们正在朝着同一个目标努力的错觉。
“整洁的胜利”
人工智能研究人员开始以前所未有的速度创建和利用复杂的数学方法。人工智能需要解决的许多问题已经由数学、电气工程、经济学和运筹学等领域的学者解决。共享的数学语言允许不同领域之间的更多合作,并实现可测量和可验证的结果;根据 Russell & Norvig (2003) 的说法,人工智能现在已经成为一门更严肃的“科学”学科。
自从 Judea Pearl 1988 年有影响力的工作将概率和决策理论引入该领域以来,概率和决策理论已被纳入人工智能。贝叶斯网络、隐马尔可夫模型、信息论、随机建模和经典优化只是众多新技术中的一小部分。还为“计算智能”范式(如神经网络和进化算法)开发了数学表示。
预测(或“HAL 9000 在哪里?”)
1968 年,Arthur C. Clarke 和 Stanley Kubrick 预测,到 2001 年,机器的智力将与人类相当或超过人类。他们设计的 AI 角色 HAL 9000 是基于许多顶级 AI 专家的概念,即这种设备将在 2001 年开发出来。
到 2016 年,人工智能相关商品、硬件和软件的市场规模已超过 80 亿美元,人们对人工智能的兴趣达到了“狂热”。大数据的应用已经开始超越统计领域。例如,大数据被用来训练生态学模型和各种经济应用。深度学习(尤其是深度卷积神经网络和循环神经网络)的进步推动了图像和视频处理、文本分析甚至语音识别方面的进步和研究。
大数据
大数据是一个术语,用于描述超出典型应用软件能力的大量数值数据。它需要一套全新的处理模型来处理这种级别的决策、洞察和流程优化。在大数据时代,Victor Meyer Schonberg 和 Kenneth Cooke 将大数据定义为“所有数据都用于分析而不是随机评估(抽样调查)。
以下是大数据的五个重要特征:Volume、Velocity、Variety、Value 和 Veracity(由 IBM 提出)。大数据技术的意义不在于掌握海量数据信息,而在于关注重要的比特。换句话说,如果把大数据比作经济,那么这个行业盈利的关键是提高数据的“加工能力”,将其转化为“增值”。
通用人工智能
解决任何问题的能力,而不仅仅是一个特定的问题,被称为通用智能。通用人工智能(或“AGI”)是指可以以与人类相同的方式将智能应用于各种问题的软件。
人工智能研究人员在 2000 年代初辩称,人工智能的发展在很大程度上放弃了该领域创造通用人工智能的最初目标。 AGI 研究作为一个单独的子学科建立,到 2010 年,有专门用于 AGI 研究的学术会议、实验室和大学课程,以及私人财团和新公司。
通用人工智能也被称为“强人工智能”、“全人工智能”或一种综合智能,而不是“弱人工智能”或“狭义人工智能”。
2022 年的人工智能
人工智能 (AI) 已成为众多行业的商业和组织现实。即使人工智能的好处并不总是显而易见的,但它已经证明自己能够提高流程效率、减少错误和劳动力,并从大数据中提取洞察力。
人们正在谈论人工智能驱动的趋势将是世界上的下一件大事。此处展示了 2022 年最有趣的 AI 趋势集合:
- 投资回报驱动的人工智能实施;
- 视频分析;
- “即服务”商业模式;
- 改善网络安全;
- 元界中的人工智能;
- 数据结构;
- 人工智能和机器学习与物联网 (IoT);
- 人工智能领先的超自动化。
结论
人工智能对科学、经济、生产和每个人的每一个领域的未来都有巨大的影响。人工智能从一开始就为大数据、机器人、物联网等创新技术的发展做出了贡献,并将继续发展。