人工智能的发展已有65年的历史,曾经历过寒冬,也经历过辉煌。从符号主义的专家系统到现在所向披靡的神经网络,不少人担心是否寒冬会再来,也有乐观的人表示人工智能的春天也要来了。回到人工智能发展的开端,也许会有答案。
1956年夏天,一群数学家和计算机科学家占领了达特茅斯学院数学系所在大楼的顶层。在大约八周的时间里,他们想象着一个新研究领域的可能性。
约翰-麦卡锡(John McCarthy)是当时是达特茅斯大学的一名年轻教授,他在为研讨会写提案时创造了「人工智能」一词,他说研讨会将探索这样的假设:
「(人类)学习的每一个方面或智能的任何其他特征原则上都可以被精确描述,以至于可以用机器来模拟它。」
在那次传奇性的会议上,研究人员大致勾勒出了我们今天所知的人工智能。它催生了第一个研究者阵营:「符号主义者」(symbolists),基于符号主义的专家系统在20世纪80年代达到了顶峰。
会议之后的几年里,还出现了「连接主义者」(connectionists),他们在人工神经网络上苦苦钻研了几十年,直到最近才开始再创辉煌。
这两种方法长期以来被认为是相互排斥的,研究人员之间对资金的竞争造成了敌意,每一方都认为自己是在通往人工通用智能的道路上。
但回顾自那次会议以来的几十年,数次人工智能寒冬都让研究人员的希望经常破灭。在今天,即使人工智能正在彻底改变行业并可能要颠覆全球劳动力市场,许多专家仍然想知道今天的人工智能是否已经达到极限。
正如 Charles Choi 在「人工智能失败的七种方式」中所描绘的那样,当今深度学习系统的弱点正变得越来越明显,然而研究人员几乎没有危机感。他认为也许在不远的将来可能会迎来另一个人工智能冬天, 但这也可能是受启发的工程师最终将我们带入机器思维的永恒之夏的时候。
开发符号人工智能的研究人员的目的是明确地向计算机教授世界知识。他们的宗旨认为知识可以由一组规则表示,计算机程序可以使用逻辑来操纵这些知识。符号主义者的先驱如纽厄尔和赫伯特西蒙认为,如果一个符号系统有足够的结构化事实和前提,那么聚合的结果最终会产生通用的智能。
另一方面,连接主义者受到生物学的启发,致力于「人工神经网络」的研发,这种网络可以接收信息并自行理解。
一个开创性的例子是感知机,这是一种由康奈尔大学心理学家弗兰克罗森布拉特在美国海军资助下建造的实验机器。它有 400 个光传感器共同充当视网膜,向大约 1,000 个神经元提供信息,这些神经元能够进行处理并产生单个输出。1958 年,《纽约时报》的一篇文章援引罗森布拉特的话说,“机器将成为第一个像人脑一样思考的设备”。
肆无忌惮的乐观鼓励美国和英国的政府机构将资金投入研究。1967 年,麻省理工学院教授、人工智能之父马文·明斯基甚至写道:“在一代人之内……创造‘人工智能’的问题将得到实质性解决。”
然而不久之后,政府资金开始枯竭,原因是人工智能研究除了炒作外没有任何实质性的进展没有辜负它自己的炒作。1970 年代见证了第一个人工智能冬天。
然而,真正的人工智能研究者没有放弃。
到 1980 年代初,符号主义 AI 的研究人员带来了鼎盛时期,他们因特定学科(如法律或医学)知识的专家系统而获得资助。投资者希望这些系统能很快找到商业应用。
最著名的符号人工智能项目始于 1984 年,当时研究人员道格拉斯·莱纳特 (Douglas Lenat) 开始着手一项名为 Cyc 的项目,该项目旨在将常识编码到机器中。
直到今天,Lenat 和他的团队还在继续向 Cyc 的本体添加术语(事实和概念),并通过规则解释它们之间的关系。到 2017 年,该团队有 150 万个条款和 2450 万条规则。然而,Cyc 离实现通用智能还差得很远。
20世纪80年代末,商业的寒风带来了第二个人工智能冬天。专家系统市场的全面崩溃是因为它们需要专门的硬件,无法与越来越通用的台式计算机竞争。到了20世纪90年代,研究符号人工智能或神经网络在学术上已不再流行,因为这两种策略似乎都失败了。
但是,取代专家系统的廉价计算机对连接主义者来说是一个福音,他们突然获得了足够的计算机能力来运行具有多层人工神经元的神经网络。这类系统被称为深度神经网络,它们实现的方法被称为深度学习。
多伦多大学的Geoffrey Hinton 实现了一种叫做反向传播的原理来让神经网络从他们的错误中学习。
Hinton 的一位博士后 Yann LeCun 于 1988 年进入 AT&T 贝尔实验室,在那里他和一位名叫 Yoshua Bengio 的博士后使用神经网络进行光学字符识别;美国银行很快就采用了这种技术来处理支票。
Hinton、LeCun 和 Bengio 于 2019 年获得图灵奖。
但是神经网络的拥护者仍然面临一个大问题:他们的理论框架逐渐拥有越来越多的计算能力,但是世界上没有足够的数据来供他们训练模型,至少对于大多数应用程序来说是这样,人工智能的春天还没有到来。
但在过去的二十年里,一切都变了。
尤其是随着互联网蓬勃发展,突然间,数据无处不在。
数码相机和智能手机在互联网上发布图像,维基百科和 Reddit 等网站充满了可免费访问的数字文本,YouTube 有大量视频。足够的数据也是训练神经网络的基础。
另一个重大发展来自游戏行业。Nvidia 等公司开发了称为图形处理单元 (GPU) 的芯片,用于在视频游戏中渲染图像所需的繁重处理。游戏开发人员使用 GPU 进行复杂的着色和几何变换。需要强大计算能力的计算机科学家意识到,他们可以使用 GPU 执行其他任务,例如训练神经网络。
Nvidia 也注意到了这一趋势并创建了 CUDA,CUDA 可以让研究人员能使用 GPU 进行通用数据处理。
2012年,Hinton 实验室的一名学生名叫 Alex Krizhevsky,他使用 CUDA 编写了一份神经网络的代码,AlexNet 模型的效果惊艳了整个学术界。
Alex 开发这个模型的目的是 ImageNet 竞赛,ImageNet提供数据让 AI 研究人员构建计算机视觉系统,该系统可以将超过 100 万张图像分为 1,000 个类别的对象。
虽然 Krizhevsky 的 AlexNet 并不是第一个用于图像识别的神经网络,但它在 2012 年的比赛中的表现引起了全世界的关注。AlexNet 的错误率为 15%,而第二名的错误率高达 26%。神经网络的胜利归功于 GPU 的能力和包含 650,000 个神经元的深层结构。
在第二年的 ImageNet 比赛中,几乎每个人都使用了神经网络。到 2017 年,许多参赛者的错误率已降至 5%,随后组织者结束了比赛。
深度学习这次开始彻底起飞了。
凭借 GPU 的计算能力和大量用于训练深度学习系统的数字数据,自动驾驶汽车可以在道路上行驶,语音助手可以识别用户的语音,网络浏览器可以在数十种语言之间进行翻译。
人工智能还在一些以前被认为是机器无法战胜的游戏中击败了人类冠军,包括棋盘游戏围棋和策略游戏星际争霸 II。
目前人工智能的发展已经惠及各行各业,能够为每个应用场景都提供了识别模式和做出复杂决策的新方法。
但是深度学习领域不断扩大的胜利依赖于增加神经网络的层数并增加专门用于训练它们的 GPU 时间。
人工智能研究公司 OpenAI 的一项分析表明,在 2012 年之前,训练最大的人工智能系统所需的计算能力每两年翻一番,之后每 3.4 个月翻一番。
正如 Neil C. Thompson 和他的同事在 Deep Learning's Diminishing Returns 中所写的那样,许多研究人员担心人工智能的计算需求正处于不可持续的轨道上,并且可能破坏地球的能量循环,研究人员需要打破构建这些系统的既定方法。
虽然看起来似乎神经网络阵营已经彻底击败了符号主义者,但事实上,这场战斗的结果并不是那么简单。
例如 OpenAI 的机器人手因为操纵和求解魔方而成为头条新闻,该机器人同时使用神经网络和符号人工智能。它是许多新的神经符号(neuo-symbolic)系统之一,使用神经网络进行感知,使用符号人工智能进行推理,这是一种混合方法,可以提高效率和解释性。
尽管深度学习系统往往是黑匣子,以不透明和神秘的方式进行推理,但神经符号系统使用户能够深入了解并了解人工智能是如何得出结论的。美国陆军特别警惕依赖黑匣子系统,因此陆军研究人员正在研究各种混合方法来驱动他们的机器人和自动驾驶汽车。
目前来说深度学习系统是为特定任务而构建的,不能将它们的能力从一项任务推广到另一项任务。更重要的是,学习一项新任务通常需要人工智能清除它所知道的关于如何解决其先前任务的一切,这个难题称为灾难性遗忘。
在谷歌位于伦敦的人工智能实验室 DeepMind,著名的机器人专家 Raia Hadsell 正在使用各种复杂的技术解决这个问题。其他研究人员正在研究新型元学习,希望创建 AI 系统,学习如何学习,然后将该技能应用于任何领域或任务。
所有这些策略都可能有助于研究人员实现他们最高的目标:用人类观察孩子发展的那种流体智能来构建人工智能。
幼儿不需要大量数据就可以得出结论,他们做的只是观察世界,创建一个关于它如何运作的心智模型,采取行动,并使用他们的行动结果来调整该心智模型。他们迭代直到他们理解。这个过程非常高效和有效,甚至远远超出了当今最先进的人工智能的能力。
尽管目前研究 AI 的投入资金达到了历史最高水平,但几乎没有证据表明我们的未来会失败。世界各地的公司都在采用人工智能系统,因为他们看到他们的底线立即得到改善,而且他们永远不会回头。
研究人员是否会找到适应深度学习的方法以使其更加灵活和强大,或者设计出这65年探索中还没有发现的新方法,让机器变得更像人类。
领取专属 10元无门槛券
私享最新 技术干货