Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >AI应从神经科学中借鉴想法和思路

AI应从神经科学中借鉴想法和思路

作者头像
大数据文摘
发布于 2018-05-22 10:31:52
发布于 2018-05-22 10:31:52
6650
举报
文章被收录于专栏:大数据文摘大数据文摘

授权转载自OReillyData

作者 | Jack Clark

编者注:在这里登记报名可以下载即将出版的由Jack Clark编写的报告《人工智能:教会机器像人一样思考》。本文所刊载的采访是收录在这篇报告中一系列采访之一。

根据Geoff Hinton(经常被誉为深度学习的“教父”)的观点,更好地理解神经元产生脉冲的原因可以带来更聪明的人工智能系统,其可以更有效地存储更多的信息。

Geoff Hinton是多伦多大学的荣誉退休杰出教授和谷歌的工程院士。他是神经网络的先驱者之一。作为很小一群学术人员之一,他和其他人共同哺育这项技术渡过了它所经历的研究兴趣、资金和发展的低潮期。

核心内容:

  1. 通过诸如奥巴马政府的“大脑计划”这样的研究项目完成的大规模大脑研究,有希望获得对大脑的新认知,从而为AI的设计人员带来新想法和思路。
  2. 是可以把神经科学里的发现引入到AI相关的想法里,尽管这可能会花些时间。在1973年,Hinton首先想到去实现一个类似于神经突触在多时间尺度上变化的机制,但直到2016,才发表了这个领域的一篇主要论文。
  3. 开发强大的感知系统是相对容易的,但是我们需要新的技术来构建能够推理和语言的系统。

Jack Clark:为什么我们在开发AI系统时需要关注大脑?我们需要关注哪些方面?

Geoff Hinton:主要原因是大脑是真正有智能的东西。到目前为止,大脑是我们唯一知道的聪明且通用的智能。第二个原因是,很多年来,一部分人认为我们应该关注大脑从而能让AI更好地工作,但他们并没有前行太远。在80年代他们有推进,但随后就停滞了。AI界的人们嘲笑他们说:“你不能通过研究大黄蜂来设计波音747客机”。但事实表明他们从大脑研究上取得的灵感对AI是非常有用的,而且没有这些灵感,他们也不会向那个方向去研究。这不仅仅是因为我们有一个智能的例子,还因为我们也有一个真正能工作的方法论的例子。我认为我们应该继续推进这个方向。

JC:今天,诸如神经网络的现代分类器的各个方面看起来都有些类似于我们知道的大脑的视觉系统。受海马体的启发,我们也开发了记忆系统。还有其他的领域我们可以借鉴大脑,并从中获取灵感吗?比如脉冲刺激神经元?

GH:我们真不知道为什么神经元要发脉冲。一个理论是它们想要噪声,以便正则化,因为我们的参数超过数据量。整个Dropout(丢弃部分参数,一种防止过渡拟合的技术)的思路就是如果你有噪音的激活,你就能承受使用一个更大的模型。这可能是为什么它们要发脉冲,但我们并不清楚是否真是这样。另外一个它们要发脉冲的原因可能是这样它们就能使用类似时间的维度,来在脉冲时编码一个真实值。这个理论已经出现有50多年了,但没人知道它是否正确。在某些子系统里,神经元确实是这样做的。这就像通过判断信号到达两耳的相对时间,从而就能获取方向。

另外一个领域就是在记忆部分。突触以许多不同的时间尺度和复杂的方式去适应。 目前,在大多数人造神经网络中,我们只有一个适应突触的时间尺度,以及一个激活神经元的时间尺度。我们没有这些中间时间尺度的突触适应,我认为这对于短期记忆将是非常重要的,部分原因是它给你一个更好的短期记忆容量。

JC:在我们了解大脑的能力上有什么样的障碍?从而减缓我们受它启发来提出新思路的速度。

GH:我认为如果你把一个电极插入一个细胞并从中记录信息,或是把电极放到细胞附近并从中记录,或是靠近很多的细胞并从其中一部分中记录,你可能无法理解一些可能通过光学染料很容易理解的事情,比如一百万个细胞正在干什么。在奥巴马大脑计划里有非常多的事情可提供给我们新的技术,从而让我们看到(并弄清楚)那些曾经非常难确立的事情。我们还不知道它们将会是什么,但我猜想这将会带给我们一些有趣的思路与想法。

JC:因此,如果我们有足够大的神经网络,对于任何工作它能和人脑想匹敌吗?或还有什么我们遗漏的部件吗?

GH:这取决于你所说的是什么具体工作。如果你所说的是像语音识别,那么如果一个真正大的网络能和人类向匹敌的话,我会非常惊喜的。我认为这就不会很差也不会太好。人类不是上限。我认为在语音识别上,如果在10年内,神经网络不能做到比人类更好,我也不会很惊讶。对于其他的领域,比如推理和从一个非常小的样本里学习,开发一个能匹敌人类甚至是超越人类的系统会花更长的时间。

JC:现代的推断学习系统看起来有的一个问题,即了解问题的哪个部分值得专注去探索,由此你不必浪费时间在那些图像里不重要的部分。

GH:这在视觉里也是一样的。人类做出了非常智能的定位,几乎所有的光学阵列从不会以高分辨力进行处理。而在计算机视觉里,人们一般会把整个阵列上的低分辨率、中分辨率和高分辨率都获取,并试图把这些信息整合起来。所以这就是我们碰到的同样的问题。你如何智能地定位在事物上?我们也将在处理语言时面对同样的问题。这是一个非常本质的问题,而我们尚未解决。

JC:最近的一个讲演里,就你发表的一篇论文,你介绍了在神经网络里短期记忆权重修改的主题。你能解释一下这个论文以及为什么你认为这很重要吗?

GH:循环神经网络里,如果是处理一个句子,网络需要记忆到某个时间点句子里都有了什么内容。所有这些记忆都在隐藏层神经元的激活函数里。这意味着这些神经元必须被用来记忆内容,因此他们就不能用于当前的处理了。

一个好的例子就是如果你碰到一个嵌套的句子,比如你说“John不喜欢Bill因为他对Mary很无礼,因为Bill对Mary很无礼”。网络会从头开始处理这个句子,然后用同样的处理逻辑来处理“因为Bill对Mary很无礼”。这时的理想情况是,你希望使用相同的神经元、相同的连接和相同的连接权重来处理这后半句话。这才是真正的循环,同时这也意味着你需要使用到目前为止从句子里学习到的东西,因此你必须把这些东西存放到什么地方。那么现在的问题就是:你怎么去存放它们?在计算机里,这很简单,因为有内存。你可以把他们拷贝到内存里的其他地方来释放当前内存。但在大脑里,我不认为我们是把神经活动模式进行拷贝的。我认为大脑所做的是快速改变突触的强度,从而能在我们需要记忆的时候重建它。而且我们可以在合适的上下文的时候重建它。

我最近与Jimmy Ba和DeepMind的一些研究员共同发表了一篇论文,展示了我们是如何实现这种机制的。我认为这就是一个例子,展示了了解突触可以在多个时间尺度上变化这个事实对AI的研究是有用的。我最早是在1973年就想到了这一点,并设计了一个很小的模型,在一个非常简单的任务上实现了真正的循环。一年前,我在DeepMind重新实现了这个想法,并在这个框架内成功了。现在这个框架能记住任何东西。当我第一次冒出这个想法的时候,那时的计算机内存只有64k,我们也不知道如何训练大的神经网络。

JC:你是否认为AI需要以某种应用形式出现才能变成真正的智能,比如机器人或是足够丰富的模拟?

GH:我认为这个问题有两个层面。一个是哲学层面,而另一个则是实践层面。在哲学意义上,我认为没有理由要求AI必须以某种形式呈现,因为你可以通过阅读Wikipedia来了解这个世界是什么样。但从实践意义上说,我认为实用化对AI会很有帮助。马克思说:“如果你想了解这个世界,去尝试并改变它。”仅仅只是观察去理解事务运作的机理,并不如实践行动那样有效。因此,哲学问题就是:这个实践是否至关重要?如果实践对理解这个世界至关重要,那么天体物理学就有麻烦了。因此,我的答案是否定的。我不认为AI的应用形式化是必须的。

JC:如果你可以复制某些脉冲神经元的特性,并与可以形成临时记忆的系统集成,你可以构建出什么东西?

GH:我认为这会让目前所有我们已有的东西工作得更好。因此,对于自然语言理解,我认为有一个权重可以快速变化的辅助记忆将是非常有用的。对于那些前馈传播网络,我认为重合检测器对于过滤背景噪音会非常合适。这样神经网络就能更好地聚焦于信号区,而过滤掉噪音。这在学习小数据集时可能也会有帮助。

作者:Jack Clark

Jack Clark是一位专注于人工智能的作家和传播者。 他在OpenAI工作,之前曾为Bloomberg和BusinessWeek报道AI内容,并为The Register报道分布式系统。 他写了一个关于AI的发展的每周简报,称为“Import AI”。

来源:http://mp.weixin.qq.com/s/uqHsu93DMmiKL_xw8g5nFA

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2017-05-17,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 大数据文摘 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
启示AGI之路:神经科学和认知心理学大回顾 全译上
A Review of Findings from Neuroscience and Cognitive Psychology as Possible Inspiration for the Path to Artificial General Intelligence
CreateAMind
2024/07/05
5840
启示AGI之路:神经科学和认知心理学大回顾 全译上
CCAI | 人工智能的将来,是否就埋藏在大脑那些神经元突触间美妙的电信号中?
前言 我们曾经说过,在人工智能的研究中有一个流派,倾向于认为对大脑的恰当模拟会是制造出人工智能的关键,但事实上,直到今天我们对人脑的工作原理的了解仍然十分粗浅,更谈不上对它的精确模拟了。对大脑的研究、以及对以此为基础的人工智能的研究,早已脱离了单个学科可以应对的范畴,而需要多个学科领域之间的相互协作。或许只有最顶尖的人才才能理解,并最终推动这些领域的进步。 不过即使是我们目前对人脑非常浅薄的研究中得到的认知,也已经构成了一幅无比美丽的画卷。这其中蕴含的奥妙让我们丝毫不会怀疑,我们的大脑是世界上最精妙(同时居
AI科技评论
2018/03/07
8400
CCAI | 人工智能的将来,是否就埋藏在大脑那些神经元突触间美妙的电信号中?
Brain-Inspired-AI系列——AI+脑科学:人工智能与脑科学相互促进的作用
CV - 计算机视觉 | ML - 机器学习 | RL - 强化学习 | NLP 自然语言处理 本文章仅用于学术分享,如有侵权请联系删除
AiCharm
2025/03/19
4560
Brain-Inspired-AI系列——AI+脑科学:人工智能与脑科学相互促进的作用
深度学习与神经科学相遇(三)译
本文探讨了神经网络中的反向传播算法和误差梯度,以及使用合成梯度来训练神经网络。作者介绍了一种新的训练神经网络的方法,该方法使用合成梯度来训练神经网络,以解决梯度消失和梯度爆炸的问题。该方法使用一个简单的学习规则,通过从输出层到输入层反向传播误差梯度,来训练神经网络。作者还介绍了一种使用合成梯度的变体,该变体可以加速训练,并且可以使用更复杂的权重更新规则。这些方法具有生物学的启发性,因为它们模拟了大脑中神经元之间的信号传递和梯度传递机制。
企鹅号小编
2017/12/28
6580
深度学习与神经科学相遇(三)译
Deepmind“预测地图”论文背后:神经科学或将助力AI迎来新突破
对人类神经网络的理解越来越在左右人工智能的未来研究,连Deepmind也不例外。 2017年10月2日,《NATURE NEUROSCIENCE》发表了Deepmind的一篇《The hippoca
AI科技评论
2018/03/14
9040
Deepmind“预测地图”论文背后:神经科学或将助力AI迎来新突破
启示AGI之路:神经科学和认知心理学大回顾
A Review of Findings from Neuroscience and Cognitive Psychology as Possible Inspiration for the Path to Artificial General Intelligence
CreateAMind
2024/07/05
4480
启示AGI之路:神经科学和认知心理学大回顾
【蒲慕明院士】人工智能可借鉴的 5 大自然神经网络特性(35PPT)
【新智元导读】2016中国人工智能大会(CCAI 2016)日前在京召开。中国科学院外籍院士、中国科学院神经学研究所所长蒲慕明27日发表演讲《脑科学能为人工智能带来什么》。今年早些时候,蒲慕明在接受新华社记者采访时,将脑科学和类脑智能研究称为“兵家必争之地”,蒲慕明透露,“中国脑计划”已通过并有望在今年启动。“中国脑计划”预计时间跨度为15年,将通过研究人脑的基本认知原理,研发脑疾病的诊治手段及类脑人工智能。 在CCAI 2016 演讲中,蒲慕明概述了神经系统研究进展,着重介绍了误差反向传播算法等几种主流的
新智元
2018/03/23
1.1K0
【蒲慕明院士】人工智能可借鉴的 5 大自然神经网络特性(35PPT)
代码:Learning to Learn and Forget
Short-Term Plasticity Neurons Learning to Learn and Forget2206.14048
CreateAMind
2023/09/01
2200
代码:Learning to Learn and Forget
Geoff Hinton:我反对谷歌军事项目,论文评审机制正在阻碍创新
20 世纪 70 年代初期,Geoff Hinton 开始做简单的数学模型,模仿人脑神经元视觉理解世界的过程。之后数十年,人工神经网络仍然是一门不实用的技术。但是 2012 年,Hinton 和他的两名本科生使用神经网络实现了计算机图像目标识别准确率的大幅提升。之后六个月内,谷歌收购了这三名研究者创办的创业公司 DNNresearch。
机器之心
2018/12/27
3860
Geoff Hinton:我反对谷歌军事项目,论文评审机制正在阻碍创新
人工神经网络中的脑启发学习综述
Brain-inspired learning in artificial neural networks: a review
算法进阶
2023/08/28
4430
人工神经网络中的脑启发学习综述
深度学习与神经科学相遇(二)[译]
许多机器学习方法(如典型的监督式学习)是基于有效地函数优化,并且,使用误差的反向传播(Werbos, 1974; Rumelhart et al., 1986)来计算任意参数化函数的梯度的能力是一个很关键的突破,这在下文我们将详细描述。在假设1中,我们声称大脑也是,至少部分是,优化机(optimization machine,指具有优化函数能力的装置)。但是,究竟说大脑可以优化成本函数是什么意思呢?毕竟,许多自然界中的许多过程都可以被视为优化。例如,物理定律通常被认为是最小化一个动作的功能,而进化优化的是复制基因(replicator)在长时间尺度上的适应性。要明确的是,我们的主张是:(a)大脑在学习期间具有强大的信用分配机制,允许它通过调整每个神经元的属性以提升全局输出结果,以此来优化多层网络中的全局目标函数,以及(b)大脑具有确定哪些成本函数对应其哪些子网络的机制,即,成本函数是高度可调的,这是由进化逐步形成并与动物的生理需求相匹配。因此,大脑使用成本函数作为其发展的关键驱动力,就像现代机器学习系统一样。
CreateAMind
2018/07/24
4240
深度学习与神经科学相遇:不同脑区优化成本函数程序化实现分析
【新智元导读】本文是利物浦大学张嘉伟向新智元的投稿,原文首发于知乎。他翻译了论文“Toward an Integration of Deep Learning and Neuroscience”并写下
新智元
2018/03/26
1.3K0
深度学习与神经科学相遇:不同脑区优化成本函数程序化实现分析
Nature:功能神经成像作为整合神经科学的催化剂
功能性磁共振成像(fMRI)可以非侵入性地记录清醒的、有行为的人类大脑。通过跟踪不同认知和行为状态的全脑信号,或绘制与特定特征或临床状况相关的差异,功能磁共振成像提高了我们对大脑功能及其与正常和非典型行为之间联系的理解。尽管取得了这些进展,但使用功能磁共振成像的人类认知神经科学的进展与神经科学其他子领域的快速进展相对孤立,这些子领域本身也在某种程度上彼此孤立。从这个角度来看,我们认为功能磁共振成像可以很好地整合系统神经科学、认知神经科学、计算神经科学和临床神经科学的不同子领域。我们首先总结了功能磁共振成像作为一种成像工具的优点和缺点,然后重点介绍了在神经科学的每个子领域成功使用功能磁共振成像的研究实例。然后,我们为实现这一综合愿景所需的未来进展提供了路线图。通过这种方式,我们希望展示功能磁共振成像如何帮助开创神经科学跨学科一致性的新时代。
悦影科技
2023/11/26
4420
经颅磁刺激对大脑结构的直接影响: cTBS后的短期神经可塑性
最近的证据表明,在结构水平上依赖于激活的神经可塑性可以在很短的时间内(2小时或更少)在人脑中发生。然而,人类大脑结构可塑性的确切时间尺度仍不清楚。利用基于体素的形态计量学(VBM),我们研究了连续刺激颞叶(ATL)一段时间后灰质(GM)的变化。25名参与者在左侧ATL或作为扫描仪外的对照部位枕骨极上接受cTBS(continuous theta-burst stimulation),随后进行结构和功能成像。在功能成像过程中,被试执行语义联想任务和数字判断任务作为对照任务。VBM结果显示,与对照组相比,ATL刺激后,左小脑和右小脑GM降低。此外,cTBS在左侧ATL上引起了更慢的语义反应时间,降低了目标位点的区域活性,并改变了语义加工过程中左右ATL之间的功能连接。此外,ATL GM密度的降低与ATL刺激后半球间ATL连接的变化有关。这些结果表明,一次cTBS引起的结构改变反映在语义表征系统的功能重组中,表现出皮质可塑性的快速动态。我们的发现支持快速适应神经元可塑性,如突触形态的改变。我们的研究结果表明,TBS能够在成人大脑的区域突触活动中产生强大的变化。
悦影科技
2022/05/16
8950
超高效人工光电神经元成真?速度比自然神经元快3万倍,研究登Nature子刊
在人工神经网络中,被称之为神经元的诸多组件被植入数据并协同来解决诸如人脸识别等问题。神经网络反复调整相互间的突触——一种神经元之间的连接,确定由此产生的行为模式是否为更佳的解决方案。但随着时间推移,神经网络最终会在计算的结果中发现最佳的行为模式。而后它会选取这些模式作为默认值,模仿人脑的学习过程。
机器之心
2022/12/15
2850
超高效人工光电神经元成真?速度比自然神经元快3万倍,研究登Nature子刊
观点 | 专访Geoff Hinton:全新的想法将比微小的改进更有影响力
AI 科技评论按,日前,WIRED 对 Hinton 进行了一次专访,在访谈中,WIRED 针对人工智能带来的道德挑战和面临的挑战等问题进行了提问,以下为谈话内容,雷锋网 AI 科技评论编译整理。
AI科技评论
2018/12/29
5160
观点 | 专访Geoff Hinton:全新的想法将比微小的改进更有影响力
汪小京:脑科学需要自己的牛顿
今天,在全球范围,类脑智能和脑技术(BrainTech)的发展都得到了政府和企业的高度重视。类脑技术大致分为四个方面: (1)硬件设计创新。也就是从神经网络的研究里得到启发,发展新型芯片,比如IBM去年公布的TrueNorth芯片。 (2)开发智能机器人。比如美国的Boston Dynamics公司,中国的小i机器人公司都在从事这一类的研发。 (3)脑-机接口技术,即记录、解读脑的电信号,通过脑的信号来控制机器。这类技术的应用价值很高,有望在将来服务于瘫痪的病人,让他们用思维来指挥机器人。 (4)发展
新智元
2018/03/13
1.7K0
汪小京:脑科学需要自己的牛顿
深度学习与神经科学相遇(一)[译]
Figure 0. The Genetic Geography of the Brain - Allen Brain Atlas
CreateAMind
2018/07/24
3040
深度学习与神经科学相遇(一)[译]
脑科学与人工神经网络ANN的发展历程
人工神经网络(Artificial Neural Networks, ANN)是模仿生物神经网络(如大脑)的结构和功能的数学模型或计算模型,用于估计或逼近那些无法用传统算法精确表示的复杂函数关系。ANN是由大量互联互通的人工神经元组成,通过学习过程调整神经元间的连接权重,以实现特定的信号处理或行为模式。
TechLead
2024/01/02
5050
脑科学与人工神经网络ANN的发展历程
脉冲神经网络克服了类脑计算的硬件障碍,让AI更节能
人工神经网络是如今最成功的人工智能(AI)算法,它的基本构成是按照我们大脑真实神经网络的处理模式,一般来说,隐藏层越多,越复杂,网络精度就越高。但基于计算机运行的人工神经网络会消耗惊人的能量和时间,而且它的效率远不及人类的大脑运算能力。为了提高AI算法的效率,科学家们将目光转向如何令AI系统能够像人脑一样处理信息,即如何让这个系统在结构成分上更像大脑?
脑机接口社区
2022/09/22
4270
脉冲神经网络克服了类脑计算的硬件障碍,让AI更节能
推荐阅读
相关推荐
启示AGI之路:神经科学和认知心理学大回顾 全译上
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档