AI大师、图灵奖得主Yoshua Bengio在近日陷入了一场“舌战”,与他“交火”的对象是现年49岁的Gary Marcus。Marcus是 Robust.AI、Geometric Intelligence两家AI公司的创始人,本身也是研究人工智能多年的科学家,同时还是一位畅销书作家。
两人争论的焦点在于:神经网络是不是通用人工智能的解决方案?
深度学习的出现为进展缓慢的人工智能领域带来了突破,而神经网络更是让人们看到了未来无限的潜能。随着神经网络的广泛使用,不少企业、研究机构已经构建出了层数、复杂度都相当可观的模型,但是瓶颈还是出现了:通用人工智能的目标仍然难以达成。
对此,AI大师、图灵奖得主Yoshua Bengio认为:除非深度学习能够超越模式识别并真正掌握因果关系的更多信息,否则它根本不可能发挥其全部潜力,也无法带来真正的AI革命。换句话说,深度学习应当开始理解“为什么”。
Yoshua Bengio
举例来说,理解了因果关系之后,现有AI系统将在智能度与执行效率方面更上一层楼。比如要让一个机器人理解:快速下落的瓷器极易损坏,就不需要把几十个花瓶扔到地上再观察结果。
而且Bengio认为,一旦深度学习在因果关系上取得突破,同样陷入瓶颈的自动驾驶领域也将迎来新的进展。
但是,Gary Marcus似乎与Bengio的观点稍有分歧,尤其在神经网络方向,Marcus认为:与其执着于神经网络的研究,不如尝试一下其他的方向,比如符号系统。
首先是Yoshua Bengio在Facebook发布的一段话:
我近期的研究项目旨在研究当前深度学习系统的弱点,以便设计出在更高层次的认知和更大的组合(和系统)概括方面更强大的系统,包括因果关系和推理的处理,而Gary Marcus似乎很喜欢引用我在谈论这一项目时的部分说法。
他不同意Yann LeCun、Geoff Hinton和我所表达的观点,即:神经网络确实可以成为一种“通用的溶剂”,将进一步的认知能力整合到计算机中。他倾向于认为:深度学习仅限于感知,需要与符号处理相结合。
就这一点来说我不能完全苟同。
我同意GOFAI的目标(如System II的执行顺序推理的能力特征认知)很重要,但我相信他们可以执行而呆在一个深度学习框架,尽管这使得大量使用注意力机制(因此我的意识之前的研究项目)和注入新建筑(如模块化)和训练框架(如元学习和一个基于主体的视图)。
编者注:GOFAI (Good Old-Fashioned Artificial Intelligence) 有效的老式人工智能。 GOFAI 泛指用最原始的人工智能的逻辑方法解决小领域的问题, 例如棋类游戏的算法。
人工智能是否可以使用高级符号表达,如词和想法?还是需要“子符号”的处理?1986年,John Haugeland提出了GOFAI的概念,其主要内容诠释了人工智能的哲学意义,也提议人工智能应归类为Synthetic Intelligence,这个概念后来被某些非GOFAI研究者采纳。
我敢打赌,一个简单的混合将深层网络的输出离散化,然后传递给GOFAI符号处理系统是行不通的。
为什么?原因有很多:
(1)你需要学习System II部分和System I部分;
编者注:所谓“System I”和“System II”的观点出自一本书:《Thinking,Fast and Slow 》,作者是诺贝尔经济学奖获得者Daniel Kahneman,其中心论点是两种思维方式之间的二分法:“System I”是快速,本能和感性的;“System II”更慢、更仔细、更合乎逻辑。该书从Kahneman自己的研究开始,描述了与每种思维相关的认知偏见。
(2)还需要表示不确定性;
(3)暴力搜索(bru- force search,符号处理系统的主要推理工具)不具有可伸缩性,人类使用无意识(System I)处理来指导推理中涉及的搜索,因此System I和System II是紧密结合的;
(4)你的大脑本就是一个神经网络(而非符号系统)。
针对上述观点,Gary Marcus进行了回应:
Gary Marcus
亲爱的Yoshua:
感谢你在Facebook上发表的笔记,下面再作转载,然后发表自己的想法。感谢你抽出宝贵时间考虑这些问题。
我非常高兴的是,我们之间的共识多于分歧,并且像你一样,我也希望该领域可以从我们的共识与分歧中受益。
“将深度网络的输出离散化,而后传递到GOFAI符号处理系统的这种简单混合方法不会起效。为什么?原因很多:(1)你需要同时在Systyem II的组件与Systyem I的组件中学习;(2)你需要同时表达其中存在的不确定性……”
Ernie Davis和我实际也提出过相同的观点:
“……以手动方式对机器需要了解的一切进行编码根本就没有可行性。机器必须有能力自主学习很多内容。我们可能需要手动编码某些基本事实,例如锋利的硬质刀片能够切割柔软的材料,但是AI应该能够在这项知识的基础上自己摸索出刀具、刨丝器、割草机以及搅拌机的工作原理,而不是硬性要求我们为其逐一编码。”
再来说第2点,我们也会强调不确定性与GOFAI的局限性:
“我们一直以来所探讨的形式逻辑只能达成一个目标:让我们能够掌握我们所确定的知识,并利用始终有效的规则据此推断出新的知识。如果我们完全确定Ida拥有一部iPhone,而且完全确定iPhone由苹果公司制造,那么我们就可以确定Ida拥有一款苹果制造的产品。但是生活中有多少能够绝对确定的因素?正如Bertrand Russel所写道,「人类的一切知识都具有不确定性、不准确性以及局限性。」但是,人类能够通过某种方式管理这些问题。当机器最终也获得这种管理能力时,就意味着它们能够像人类一样利用这些不确定、不准确且存在局限的知识进行表达与推理,那才是真正灵活且强大的通用型AI方案。”
“目前的机器学习方法在将所学经验推广到训练场景之外时,似乎表现得不够强大……其仅能够在与训练数据具有相同分布的采集测试集上获得良好的推广效果,而这显然远远不够。”
其实我早在1998年的论文中所表达过类似的观点:
目前流行的去联结主义模型,无法学会如何在训练空间之外实现通用性扩展。
以下是2001年《代数思维(The Algebraic Mind)》中第3章部分的重点内容:
我曾多次在公开与私下场合提醒你注意这种迹象,也曾强调这些迹象对你的研究框架非常重要,但你似乎从未对此做出回应或者引用。
尽管存在分歧,但我仍是你忠实的支持者。这一方面是因为你长期以来的努力探索与出色工作,同时也是因为你近年来在评判深度学习局限性方面表现出的诚实与正直。我欣赏你将AI技术应用于更大的人类福祉的愿景,也真实地希望更多人能够以你作为成长的榜样。
如果你能够将因果关系(及其在人类身上表现出的丰富形式)引入深度学习,那么相信通用人工智能也将因此而受益匪浅。我期待着你后来的探索,也期待着下次来蒙特利尔时能有机会拜访你和你的实验室。
祝好,
Gary Marcus
不论两人之间存在共识还是分歧,又或者这样的争论结果如何,两位大佬都是行业内的翘楚,这样的讨论相信会给整个人工智能领域带来一些灵感,未来的发展之路可能就在这一次次的思想碰撞中产生。对于通用人工智能的发展你有哪些想法?欢迎留言与同行们共同交流!
领取专属 10元无门槛券
私享最新 技术干货