前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Nat. Commun. |用于学习生成模型的神经编码框架

Nat. Commun. |用于学习生成模型的神经编码框架

作者头像
DrugAI
发布于 2022-06-10 07:16:26
发布于 2022-06-10 07:16:26
3690
举报
文章被收录于专栏:DrugAIDrugAI

编译|侯琳琳 审稿|程思雨

本文介绍了罗彻斯特理工学院计算机科学系的Alexander Ororbia和Daniel Kifer在Nature Communications上发表的文章:《The neural coding framework for learning generative models》。作者受大脑预测处理理论的启发,提出了一个用于开发神经生成模型的计算框架。在该框架内学习的神经生成模型在多个基准数据集和评价指标的实践中表现良好,与其他生成模型不相上下甚至优于其他生成模型。

1

介绍

根据预测处理理论的观点,大脑可以比作一个层次模型,其层次由神经元(或神经元簇)实现。如果将层次比作大脑的区域,则一个层次(区域)的神经元尝试预测另一层次(区域)的神经元状态,并根据其预测和观察到的差异程度来调整/纠正其局部模型突触参数。此外,这些神经元利用各种机制刺激/抑制彼此以促进上下文处理。作者认为,这种观点可以变成用于学习生成模型的强大框架。

机器学习中,一个中心目标就是构建一个学习分布式表征的agents。生成模型是获得这些表征的一种方法。现有的生成模型基于人工神经网络,但是ANNs的运作和学习方式与我们之前描述的神经机制相差甚远。更明确的说,ANN生成模型用误差反向传播(backprop)进行训练。人工神经网络中的神经元分层排列,它们不会做出局部预测,也不会影响彼此的活动。此外,基于反向传播的模型中的突触调整是在非本地完成的,而在神经生物学网络中,这种调整通常被认为是在本地完成的。也就是说,神经元利用它们立即可用的信息(在时间和空间上),并不会等待遥远的区域来调整它们的突触。

本文提出了神经生成编码 (NGC) 计算框架作为学习生成人工神经网络的有效方法,解决了几个关键的backprop-centric问题。

2

结果

生成神经编码学习可行的自动关联生成模型

问题设置:代理必须学习 模拟样本数据集 X中概率分布。

典型的深度学习方法

一个前馈ANN,也被称为解码器,可以对输入的分布建模。解码器将输入映射为概率分布的参数。这个人工神经网络通常由L+1层神经元组成(L层隐藏层、一层输出层),第l层的状态用向量zl表示(如图1所示)

解码器的输出z0就是概率分布的参数。

图1 Backprop与神经编码的对比

反向传播学习vs类脑学习

虽然反向传播算法在训练ANN方面是普遍且有效的,但是它与我们当前理解的类脑学习不同,比如,在反向传播中:

  1. 构成前向信息通路的突触直接被反向使用以传达教学信号。
  2. 神经元需要了解和交流它们自己的激活函数的一阶导数。
  3. 神经元必须等待它们前面的神经元将它们的误差信号渗透回去,以便它们知道何时以及如何调整自己的突触。
  4. 误差反馈有一种独特的信息传播形式,它从系统的输出开始,然后返回输入层(见图 1a),它不影响神经活动(全局反馈路径问题)
  5. 误差信号与神经元一一对应。

本文的目标是提出一个建模和学习框架,该框架使用较少的与当前对类脑学习的理解不相容的机制。具体来说,本文的目标是解决前 4 个问题。

神经生成编码框架

相比基于反向传播的方法,本文提出的框架:神经生成编码(NGC),通过提出一系列的模型和相应的训练程序,提供了模仿上述几个神经生物准则和特性的方式。在这个框架中,每一个模型都被称为生成神经编码网络(GNCN),每一个GNCN模型包含L+1层神经元。第l层的状态用向量zl表示。任意一个GNCN模型的目标就是学习L+1个状态向量的联合分布。通过公式

获得数据的边缘分布。最后最小化 -log p(x)即可。

实验结果

为了评估本文的框架,作者在四个图像数据上比较了九种方法:高斯混合模型 (GMM) 和八个神经模型,其中前四个是基于反向传播的,后四个是 NGC 模型。实验结果如下图(图中标出了每个数据集上最优的两个数据)

此外,分别从原始数据集、GAN-AE、GNCN-t2-L∑中取样,结果如下图:

GAN-AE、GNCN-t2-L∑都产生相当优秀的样本图像。两者产生的图片的质量差不多,这表明NGC 模型可以与基于反向传播的生成模型竞争。

神经生成编码(NGC)可以产生强大的下游模式分类器

本文中生成模型本质上都是无监督的,这意味着通过尝试学习数据底层分布的密度估计,每个生成模型获得的表示可能证明对下游应用有用,例如图像分类。为了评估每个模型的潜在表示在区分样本时可能有多有用,我们评估了一个简单的对数线性分类器的性能,即最大熵。实验结果如下图:

在测试误差方面,NGC 模型与纯判别训练的 DSRN 相比具有竞争力(甚至在其中一种情况下优于 DSRN)并且优于所有其他生成模型。

文中还提供了定性证据,表明与 GAN-AE 相比,NGC 模型的潜在表示似乎可以将测试数据点更好地分离为看似独立的集群。下图是MNIST 数据库中 GAN-AE(左) 和 GNCN-t2-LΣ (右)的潜在代码的 t-SNE 图。

神经生成编码(NGC)可以进行模式补全

NGC可以补全部分损坏或不完整模式。为了测试每个模型补全模式的能力,我们进行了一个实验,其中每个数据集中每个图像的右半部分被屏蔽,每个模型的任务是预测删除的部分。在表 2 中显示了每个模型在每个数据集的测试集上的掩蔽均方误差。可以看到 NGC 模型在模式完成方面优于其他模型。

3

讨论

基于人工神经网络 (ANN) 的生成模型已经产生了用于从复杂的概率数据分布中估计和采样的很有用的工具。通过重新考虑这些模型如何操作和学习,从预测处理理论(大脑如何相互作用和适应其环境)中汲取灵感,本文证明了学习一个可行的生成模型是可能的。具体来说,本文提出了用于学习数据的神经概率模型的神经生成编码 (NGC) 计算框架,实现了 NGC 的几个具体实例,即生成神经编码网络 (GNCN)。GNCNs 不仅在估计数据边缘分布的任务上与几个强大的、现代的基于反向传播的模型相比具有竞争力,还可以泛化到他们最初接受训练的任务之外。

本文的工作让机器学习更接近计算神经科学,这样可能让我们更容易摆脱反向传播施加的限制,以构建能够模拟更复杂的人类认知功能。这样做还可能使机器学习社区在比生成建模更难的问题上取得进一步进展,例如主动推理问题和连续时间预测。

参考资料

Ororbia, A., Kifer, D. The neural coding framework for learning generative models. Nat Commun 13, 2064 (2022).

https://doi.org/10.1038/s41467-022-29632-7

代码

https://github.com/ago109/ngc-learn

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-04-22,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 DrugAI 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
学习生成模型的仿生神经编码框架
神经生成模型可用于从数据中学习复杂的概率分布,从中采样,并产生概率密度估计。我们提出了一个计算框架,用于开发受大脑中预测处理理论启发的神经生成模型。根据预测处理理论,大脑中的神经元形成一个层次,其中一个层次的神经元形成对来自另一个层次的感觉输入的期望。这些神经元基于它们的期望和观察到的信号之间的差异来更新它们的局部模型。以类似的方式,我们的生成模型中的人工神经元预测邻近神经元将会做什么,并根据预测与现实的匹配程度来调整它们的参数。在这项工作中,我们表明,在我们的框架内学习的神经生成模型在实践中跨几个基准数据集和指标表现良好,并与具有类似功能的其他生成模型(如变分自动编码器)保持竞争或明显优于它们。
CreateAMind
2023/09/12
2340
学习生成模型的仿生神经编码框架
稳定、快速、自动的预测编码算法
预测编码网络是受神经科学启发的模型,根源于贝叶斯统计和神经科学。然而,训练这样的模型通常效率低下且不稳定。在这项工作中,我们展示了通过简单地改变突触权重更新规则的时间调度,可以得到一个比原始算法更高效稳定且具有收敛性理论保证的算法。我们提出的算法被称为增量预测编码(iPC),与原始算法相比,在生物学上更加合理,因为它是完全自动的。在一系列广泛的实验中,我们展示了在大量图像分类基准测试以及条件和掩码语言模型的训练方面,iPC在测试准确性、效率和收敛性方面始终优于原始表述,针对大量超参数集。
CreateAMind
2024/04/26
2020
稳定、快速、自动的预测编码算法
解决深度学习4大缺陷
A Review of Neuroscience-Inspired Machine Learning https://arxiv.org/abs/2403.18929
CreateAMind
2024/04/19
2920
解决深度学习4大缺陷
超越BP算法:增量预测编码: 并行且全自动的学习算法
paper:INCREMENTAL PREDICTIVE CODING: A PARALLEL AND FULLY AUTOMATIC LEARNING ALGORITHM
CreateAMind
2023/09/12
3180
超越BP算法:增量预测编码: 并行且全自动的学习算法
人工神经网络中的脑启发学习综述
Brain-inspired learning in artificial neural networks: a review
算法进阶
2023/08/28
4010
人工神经网络中的脑启发学习综述
从人类大脑到人工神经网络:神经网络的生物学启发
人工神经网络(ANN)是深度学习领域的核心技术之一,它模拟了人类大脑的基本神经结构,通过层次化的神经元连接进行信息处理和学习。自从1950年代人工神经网络的初步构思以来,随着计算能力的提升,神经网络已逐步发展成一个高度复杂的模型,广泛应用于图像识别、自然语言处理、语音识别等多个领域。然而,人工神经网络并非凭空产生,它深受人类大脑生物学结构的启发,特别是神经元的结构和信息传递方式。本文将深入探讨从人类大脑到人工神经网络的演化过程,并通过代码示例帮助理解神经网络模型的构建与应用。
一键难忘
2025/03/18
2720
脑启发的ANN学习机制综述
Brain-inspired learning in artificial neural networks: a review
CreateAMind
2023/09/01
4010
脑启发的ANN学习机制综述
一个epoch打天下-理论基础:短期突触可塑 建模动态环境的最优性
paper:Optimality of short-term synaptic plasticity in modelling certain dynamic environments
CreateAMind
2023/09/13
3850
一个epoch打天下-理论基础:短期突触可塑 建模动态环境的最优性
一文了解神经网络工作原理
深度学习是机器学习中重要分支之一。它的目的是教会计算机做那些对于人类来说相当自然的事情。深度学习也是无人驾驶汽车背后的一项关键性技术,可以帮无人车识别停车标志、区分行人与路灯柱。它是手机、平板、电视和免提扬声器等设备实现语音控制的关键。深度学习近期以其前所未有的成果获得了广泛关注。
小白学视觉
2020/07/20
1.7K0
慢神经元进行快计算的学习理论
Latent Equilibrium: A unified learning theory for arbitrarily fast computation with arbitrarily slow neurons
CreateAMind
2023/09/13
1650
慢神经元进行快计算的学习理论
大脑启发机器智能:神经生物信用分配学习机制大全
• Implicit Signals (‘Imp’): two-factor Hebbian adaptation (Hebbian (2F));
CreateAMind
2024/04/11
1770
大脑启发机器智能:神经生物信用分配学习机制大全
什么是人工神经网络,其有哪些应用?
当你阅读这篇文章时,你身体的哪个器官正在考虑它?当然是大脑!但是你知道大脑是如何工作的吗?嗯,它有神经元或神经细胞,它们是大脑和神经系统的主要单位。这些神经元接收来自外部世界的感觉输入,它们对其进行处理,然后提供输出,这些输出可能充当下一个神经元的输入。
用户1418987
2024/09/06
2170
什么是人工神经网络,其有哪些应用?
贝叶斯神经网络(系列):第二篇
贝叶斯推断是概率论和统计学机器学习中的重要组成部分。 它是基于由著名统计学家托马斯贝叶斯给出的贝叶斯定理。 在贝叶斯推断中,随着更多证据或信息的出现,假设概率得到更新。
AI研习社
2019/05/08
9550
贝叶斯神经网络(系列):第二篇
STDP-driven predictive forward-forward algorithm
我们开发了一种新的信用分配算法,用于不需要反馈突触的脉冲神经元的信息处理。具体而言,我们提出了一个事件驱动的前向-前向和预测性前向-前向学习过程的推广,用于在刺激窗口内迭代处理感觉输入的脉冲神经系统。因此,递归电路根据局部自下而上、自上而下和横向信号计算每层中每个神经元的膜电位,从而促进神经计算的动态、逐层并行形式。与依赖反馈突触来调整神经电活动的脉冲神经编码不同,我们的模型纯粹在线操作,并在时间上向前推进,提供了一种有前途的方法来学习具有时间脉冲信号的感觉数据模式的分布式表示。值得注意的是,我们在几个模式数据集上的实验结果表明,偶数驱动的前向-前向(ED-FF)框架对于训练能够分类和重建的动态循环尖峰系统工作良好。
CreateAMind
2023/09/23
2710
STDP-driven predictive forward-forward algorithm
人工神经网络真的像神经元一样工作吗?
人工神经网络和机器学习已经成为大众媒体的热门主题。智能机器这一想法勾起了很多人的想象,而且人们特别喜欢把它和人类放一起比较。特别是有一个关于人工智能的底层机制的基础问题经常出现——这些人工神经网络的工作方式真的和我们大脑中的神经元相似吗?
崔庆才
2019/09/04
1.2K0
人工神经网络真的像神经元一样工作吗?
在任意拓扑图上学习
paper:Learning on Arbitrary Graph Topologies via Predictive Coding
CreateAMind
2023/09/12
2490
在任意拓扑图上学习
预测编码: 超越反向传播的深度学习?
paper:PREDICTIVE CODING: TOWARDS A FUTURE OF DEEP LEARNING BEYOND BACKPROPAGATION? 摘要: 用于训练深度神经网络的
CreateAMind
2023/09/13
5060
预测编码: 超越反向传播的深度学习?
【Bengio领衔】DeepMind、谷歌大脑核心研究员2017深度学习最新报告(PPT)
【新智元导读】 深度学习领军人物 Yoshua Bengio 主导的蒙特利尔大学深度学习暑期学校目前“深度学习”部分的报告已经全部结束。 本年度作报告的学术和行业领袖包括有来自DeepMind、谷歌大脑、蒙特利尔大学、牛津大学、麦吉尔大学、多伦多大学等等。覆盖的主题包括:时间递归神经网络、自然语言处理、生成模型、大脑中的深度学习等等。现在全部PPT已经公开,是了解深度学习发展和趋势不可多得的新鲜材料。 蒙特利尔大学的深度学习暑期学校久负盛名,在深度学习领军人物Yoshua Bengio 号召下,每年都聚集了
新智元
2018/03/27
7690
【Bengio领衔】DeepMind、谷歌大脑核心研究员2017深度学习最新报告(PPT)
慢神经元进行任意快计算的学习理论
Latent Equilibrium: A unified learning theory for arbitrarily fast computation with arbitrarily slow neurons
CreateAMind
2023/09/01
1480
慢神经元进行任意快计算的学习理论
Nat. Rev. Genet. | 深度学习为种群遗传学带来新机遇
今天我们介绍由维也纳大学进化人类学系的Xin Huang与Aigerim Rymbekova发表在《Nature Reviews Genetics》上的工作。在群体遗传学中,各种物种和种群的大规模基因组数据的出现,为利用统计推断来理解驱动遗传多样性的进化力量提供了新的机会。然而,群体基因组学时代在分析大量基因组和变异方面提出了新的挑战。深度学习在涉及大规模数据的众多应用中表现出了最先进的性能。最近,深度学习方法在群体遗传学中得到了广泛的应用,在海量基因组数据集、强大的计算硬件和复杂的深度学习架构的推动下,它们已被用于识别种群结构、推断人口历史和研究自然选择。本文介绍了常见的深度学习架构,并为实现深度学习模型进行群体遗传推断提供了全面的指导。本文还从效率、鲁棒性和可解释性等方面讨论了深度学习在群体遗传学中的应用面临的挑战和未来的发展方向。
DrugAI
2023/10/08
5280
Nat. Rev. Genet. | 深度学习为种群遗传学带来新机遇
推荐阅读
相关推荐
学习生成模型的仿生神经编码框架
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档