Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >干货 | 一文带你读懂DeepMind新论文,关联推理为什么是智能最重要的特征

干货 | 一文带你读懂DeepMind新论文,关联推理为什么是智能最重要的特征

作者头像
大数据文摘
发布于 2018-05-24 10:23:43
发布于 2018-05-24 10:23:43
6810
举报
文章被收录于专栏:大数据文摘大数据文摘

大数据文摘作品,转载要求见文末

编译 | 宁云州、张礼俊、笪洁琼

每一次DeepMind发布一篇新论文,媒体都会疯狂地报道。其中不乏许多让人迷惑的术语。比如就有未来主义者这样报道:

DeepMind开发了一个可以感知周围事物的神经网络。

这不仅仅误导人,还吓跑了那些没有接受过博士阶段的学习的人。所以在这篇文章里,我打算用尽量简单的语言来解释这个新的神经网络架构,这篇文章也要求一些神经网络方面的基础知识。

你可以在这里找到原论文:https://arxiv.org/pdf/1706.01427.pdf

什么是关联推理?

简单来说,关联推理是去学习不同物体(想法)之间的联系,这被认为是智能最为重要的特征。论文作者用了一个图形示例来解释:

从关联问题的角度来看,上图的模型需要检查不同形状、尺寸、颜色的物体,还能够回答和多个物体相关的问题。

关联网络

作者提出了能够抓住物体内在联系的神经网络(正如卷积神经网络能够提取图像的性质)。他们提出了由下式定义的架构:

公式解释:

神经网络和函数

当我们在学习神经网络,做反向传播之时很容易忘了,一个神经网络实际上只是一个简单的数学函数!因此,方程(1)所描述的函数是一个神经网络!更准确的说,其中有两个神经网络:

关联网络是灵活的

作者以一个模块的形式提出了关联神经网络。它可以接收被编码了的物体并学习其中的关系。但更重要的是,关联神经网络可以被嵌入于卷积神经网络(CNN),和以长短时记忆单元[Z1] (LSTM)为基础的递归神经网络中。

卷积神经网络可以被用于从图像中学习物体,这使其更易于被应用。因为能在图像中进行推理比在用户指定的物体中进行推理明显更有用。

伴随着词嵌入,长短时记忆单元(LSTM)可以被用于理解模型被问及的问题的含义。这是很有用的一个变革,因为模型现在可以接收英文句子而不是预先定义好的物体。

作者提出了结合关联网络,卷积神经网络和长短时记忆单元来构建一个端到端的、能学习物体之间关联的神经网络。

上图解释:

图像经过一个标准的卷积神经网络(CNN),从中提取出图像的特征。关联神经网络的输入对象是网格中每一个点的特征向量。比如说其中一个对象是黄色的向量。

问题被传入长短时记忆单元(LSTM)中,产出了一个关于问题的特征向量。也就是这个问题的点。

同时对方程(1)进行了一些修改,加入另一项使其变成:

在上面的公式中,注意到比起方程1多了一个q项。这个q是长短时记忆单元的最终状态。现在关联性是条件于q的。

在此之后,神经网络输出的对象和长短时记忆单元输出的特征向量被用于训练关联网络。

基准

作者在几个数据集中展示了该模型的效果。这里我们讨论其中一个数据集(在我看来最显著的一个)——CLEVR数据集。

作者指出他们的模型比其他方法在精确度上高很多。这是因为关联网络就是为学习关联性而设计的。

相对于注意力堆模型仅仅75%的准确率,他们的模型达到了96%+的准确率。

结论

关联网络十分擅长高效地学习关联性。同时灵活,可以结合卷积神经网络和长短时记忆来一起解决问题。

这篇博文意在破除由于大量论文发表导致人工智能已经接管了一切的假象,并介绍当下最先进的算法是什么样的。

2017年7月《顶级数据团队建设全景报告》下载

关于转载如需转载,请在开篇显著位置注明作者和出处(转自:大数据文摘 | bigdatadigest),并在文章结尾放置大数据文摘醒目二维码。无原创标识文章请按照转载要求编辑,可直接转载,转载后请将转载链接发送给我们;有原创标识文章,请发送【文章名称-待授权公众号名称及ID】给我们申请白名单授权。未经许可的转载以及改编者,我们将依法追究其法律责任。联系邮箱:zz@bigdatadigest.cn。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2017-08-08,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 大数据文摘 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
揭秘 DeepMind 的关系推理网络
来源 | hackernoon 编译 | 孙薇 每当 DeepMind 发表一篇新文章时,媒体都会有狂热的报道,而你常常会在这些报道中读到一些充满误导性的词句。例如,有充满未来主义色彩的媒体是这样报道 DeepMind 关于关系推理网络的新论文的: DeepMind 研发了一种可以感知周围事物的神经网络。 这样的表达不仅是误导,也使得对于人工智能领域并不是那么熟悉的用户感受到威胁。在这篇文章中,笔者整理了 DeepMind 的新论文,尝试用简单的方式来解释这个新的架构。 你可以在这里(https://arx
用户1737318
2018/07/20
8360
学界 | 标题党太吓人?这篇文章会告诉你DeepMind关系推理网络的真实面貌
每当DeepMind发表一篇新论文时,媒体都会狂热的跟踪报道,而且会使用很多误导人的短语。比如关于该关系推理网络的报道: DeepMind开发了一种神经网络,能够感知其周围的物体。 实际上这种报导不仅仅是误导性的,而且使得很多不明真相的吃瓜群众感到恐慌:AI真的已经强到如此地步了吗?在这篇文章中,将介绍DeepMind论文:A simple neural network module for relational reasoning,试着通过最简单的方式介绍这个最新的架构。 什么是关系推理? 从最简单的角度
AI科技评论
2018/03/14
7100
学界 | 标题党太吓人?这篇文章会告诉你DeepMind关系推理网络的真实面貌
【ICML2016】谷歌 DeepMind 论文下辑
【新智元导读】深度学习重要会议 ICML2016 接收谷歌 DeepMind 9篇论文,新智元系统整理,继上篇之后,本次邀请国家千人计划专家、平安科技数据平台部总经理肖京进行点评:《用记忆增强的神经网络进行单点学习》提出了新的存储读写更新策略;《深度生成模型中的单点泛化》延续了去年 Science 那篇小数据学习文章(Lake et. al.)的工作,不过,小数据学习(one-short learning)尚处于初步阶段,本文提出的方法还有待提高。其他3篇,《蒙特卡洛目标变分推断》提出了首个为重要性采样设计
新智元
2018/03/22
8840
【ICML2016】谷歌 DeepMind 论文下辑
DeepMind早就不再下围棋了,新论文训练AI进行逻辑推理
大数据文摘作品,转载要求见文末 作者 | DANIEL OBERHAUS 编译 | 刘小楚、范玥灿、宁云州 如果我们要创造广义的人工智能,我们必须教会它和我们一样思考。 去年,人工智能AlphaGo首次在人机围棋大赛中战胜了人类世界冠军。鉴于围棋的巨大复杂性,这次胜利抓取了所有人的目光。虽然AlphaGo打败了多位世界级围棋棋手的胜利令人印象深刻,但这种人工智能仍然被认为是狭义的人工智能。也就是说,这种人工智能只能在有限的任务领域强于人类。 因此,即使AlphaGo在世上最复杂的棋牌游戏中完胜人类,我们也
大数据文摘
2018/05/25
3880
一文读懂 CNN、DNN、RNN 内部网络结构区别
【AI研习社】关注AI前沿、开发技巧及技术教程等方面的内容。欢迎技术开发类文章、视频教程等内容投稿,邮件发送至:zhangxian@leiphone.com 从广义上来说,NN(或是更美的DNN)确实可以认为包含了CNN、RNN这些具体的变种形式。在实际应用中,所谓的深度神经网络DNN,往往融合了多种已知的结构,包括卷积层或是LSTM单元。但是如果说DNN特指全连接的神经元结构,并不包含卷积单元或是时间上的关联。因此,如果一定要将DNN、CNN、RNN等进行对比,也未尝不可。 其实,如果我们顺着神经网络技术
AI研习社
2018/03/29
1.6K0
一文读懂 CNN、DNN、RNN 内部网络结构区别
追根溯源!一图看尽深度学习架构谱系
机器之心整理 参与:蒋思源、李泽南、李亚洲 近几年,深度学习高速发展,出现了大量的新模型与架构,以至于我们无法理清网络类型之间的关系。在这篇文章中,中国香港科技大学(HKUST)助理教授金成勳总结了深度网络类型之间的谱系图,以便于我们索引不同类型网络的杰出研究成果。 金成勳在 GitHub 上梳理出的谱系图如下(点击图片放大查看),最后的蓝色字体部分是各分支内的杰出研究成果(附所有论文链接)。机器之心在此基础上对各个分支网络做了介绍、补充,希望对读者了解网络体系间的关联有所帮助。如有缺陷,欢迎
机器之心
2018/05/10
8460
IBM长文解读人工智能、机器学习和认知计算
人工智能的发展曾经经历过几次起起伏伏,近来在深度学习技术的推动下又迎来了一波新的前所未有的高潮。近日,IBM 官网发表了一篇概述文章,对人工智能技术的发展过程进行了简单梳理,同时还图文并茂地介绍了感知器、聚类算法、基于规则的系统、机器学习、深度学习、神经网络等技术的概念和原理。 人类对如何创造智能机器的思考从来没有中断过。期间,人工智能的发展起起伏伏,有成功,也有失败,以及其中暗藏的潜力。今天,有太多的新闻报道是关于机器学习算法的应用问题,从癌症检查预测到图像理解、自然语言处理,人工智能正在赋能并改变
钱塘数据
2018/03/06
9660
IBM长文解读人工智能、机器学习和认知计算
你不得不了解的8种神经网络结构!
机器学习已经在各个行业得到了大规模的广泛应用,并为提升业务流程的效率、提高生产率做出了极大的贡献。目前机器学习主要在以下方面应用: 模式识别:实际场景中的目标、包括人脸、表情、语音识别等等; 异常检测:例如信用卡交易的异常检测、传感器异常数据模式检测和异常行为检测等; 预测问题:预测股票或者汇率、或者预测消费者喜欢的电影、音乐等。 神经网络是一类机器学习算法和模型的统称,也是目前机器学习发展最快的一个领域。神经网络的架构主要分为三大类——前馈、循环和对称链接网络。神经网络具有如下三个特征使它成为了机器学习中
朱晓霞
2018/04/18
8100
你不得不了解的8种神经网络结构!
史上最全!27种神经网络简明图解:模型那么多,我该怎么选?
大数据文摘作品 编译:田奥leo、桑桑、璐、Aileen 27种?!神经网络竟有那么多种?这篇文章将逐一介绍下面这张图片中的27种神经网络类型,并尝试解释如何使用它们。准备好了吗?让我们开始吧! 神经网络的种类越来越多,可以说是在呈指数级地增长。我们需要一个一目了然的图表,在这些新出现的网络构架和方法之间进行导航。 幸运的是,来自Asimov研究所的Fjodor van Veen编写了一个关于神经网络的精彩图表(就是上面那张大图)。 下面,我们就来逐一看看图中的27种神经网络: Perceptron 感知
大数据文摘
2018/05/24
2.9K0
资源 | 初学者指南:神经网络在自然语言处理中的应用
选自machine learning mastery 机器之心编译 参与:刘晓坤、蒋思源 深度学习正在给自然语言处理带来巨大的变革。但是,作为一个初学者,要从哪里起步才好呢?深度学习和自然语言处理都是很宽泛的领域。哪些方面才是最重要的,还有,深度学习又是从哪个层面深刻影响了 NLP 呢? 看完这篇文章之后,你将会知道: 给自然语言处理领域带来最深刻影响的神经网络结构; 深度学习可以对自然语言处理的各个层面制定学习任务; 密集词汇表示的重要性和学习表示的方法。 让我们开始吧。 概览 这篇文章将分成 12
机器之心
2018/05/08
6370
资源 | 初学者指南:神经网络在自然语言处理中的应用
【干货】TensorFlow 实用技巧:模型盘点,使用情况及代码样例
本文将介绍当前 TensorFlow 上的所有抽象模型,描述每个模型的使用情况以及简单的代码样例。详细的示例请访问这里:https://github.com/c0cky/TensorFlow-in-a
新智元
2018/03/23
8840
一文看懂NLP神经网络发展历史中最重要的8个里程碑!
导读:这篇文章中作者尝试将 15 年的自然语言处理技术发展史浓缩为 8 个高度相关的里程碑事件,不过它有些偏向于选择与当前比较流行的神经网络技术相关的方向。我们需要关注的是,本文中介绍的许多神经网络模型都建立在同时代的非神经网络技术之上。在文章的最后,作者强调了这些有影响力的技术成果,它们为以后的 NLP 方法发展奠定了基础。
磐创AI
2019/07/23
4490
一文看懂NLP神经网络发展历史中最重要的8个里程碑!
深度学习架构谱系(完整图)
金成勳在 GitHub 上梳理出的谱系图如下(可点击图片放大查看),最后的蓝色字体部分是各分支内的杰出研究成果(附所有论文链接)。机器之心在此基础上对各个分支网络做了介绍、补充,希望对读者了解网络体系间的关联有所帮助。如有缺陷,欢迎大家留言补充。
机器人网
2018/07/23
4530
深度学习架构谱系(完整图)
长短时记忆网络学习笔记
aaa导语  一个机器学习算法包含两个主要部分  (1)模型从输入特征x预测输入y的函数f(x); (2)目标函数 目标函数取最小(最大)值时所对应的参数值,就是模型的参数的最优值。我们往往只能获得目标函数的局部最小(最大)值,因此也只能得到模型参数的局部最优值,而常见求最优解的算法是梯度下降/上升算法。 而神经网络算法是实现机器学习的其中一种方法,为了适应不同的输入特征应用场景,神经网络算法也有很多种变形,这里只是简单的介绍下长短时记忆网络,做个笔记。 背景 全连接神经网络和卷积神经网络的特点是只能单独的
MelonTeam
2018/01/15
1.8K3
长短时记忆网络学习笔记
【深度】一图看完深度学习架构谱系图
金成勳在 GitHub 上梳理出的谱系图如下,小编在此基础上对各个分支网络做了介绍、补充,希望对读者了解网络体系间的关联有所帮助。如有缺陷,欢迎大家留言补充。 Github 项目地址:https://
机器人网
2018/04/18
1.2K0
【深度】一图看完深度学习架构谱系图
深度学习架构的对比分析
深度学习的概念源于人工神经网络的研究,含有多个隐藏层的多层感知器是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示,以表征数据的类别或特征。它能够发现数据的分布式特征表示。深度学习是机器学习的一种,而机器学习是实现人工智能的必经之路。
半吊子全栈工匠
2023/09/02
8600
深度学习架构的对比分析
NLP入门:CNN,RNN应用文本分类,个性化搜索,苹果和乔布斯关系抽取(2)
前篇 一文了解自然语言处理的每个范畴用到的核心技术,难点和热点(1), 这部分涉及的NLP范畴包括: 中文分词 词性标注 句法分析 文本分类背景 下面介绍,文本分类常用的模型,信息检索,信息抽取。 8文本分类模型 近年来,文本分类模型研究层出不穷,特别是随着深度学习的发展,深度神经网络模型也在文本分类任务上取得了巨大进展。文本分类模型划分为以下三类: 基于规则的分类模型 基于规则的分类模型旨在建立一个规则集合来对数据类别进行判断。这些规则可以从训练样本里自动产生,也可以人工定义。给定一个测试样例,我们可以
double
2018/04/02
1.3K0
神经网络架构:最新进展和未来挑战
神经网络作为深度学习的核心组件,一直以来都在不断演化和发展。从最早的感知机到如今的复杂卷积神经网络和Transformer模型,神经网络架构的进展不仅在计算机视觉、自然语言处理等领域取得了显著成果,也在推动人工智能技术向前迈进。本文将探讨神经网络架构的最新进展、应用领域以及未来面临的挑战。
IT_陈寒
2023/12/13
9190
神经网络架构:最新进展和未来挑战
独家 | 一文读懂自然语言处理NLP(附学习资料)
前言 自然语言处理是文本挖掘的研究领域之一,是人工智能和语言学领域的分支学科。在此领域中探讨如何处理及运用自然语言。 对于自然语言处理的发展历程,可以从哲学中的经验主义和理性主义说起。基于统计的自然语言处理是哲学中的经验主义,基于规则的自然语言处理是哲学中的理性主义。在哲学领域中经验主义与理性主义的斗争一直是此消彼长,这种矛盾与斗争也反映在具体科学上,如自然语言处理。 早期的自然语言处理具有鲜明的经验主义色彩。如1913年马尔科夫提出马尔科夫随机过程与马尔科夫模型的基础就是“手工查频”,具体说就是
数据派THU
2018/01/30
3.5K0
独家 | 一文读懂自然语言处理NLP(附学习资料)
【GNN】一文读懂图卷积GCN
“ 本文的内容包括图卷积的基础知识以及相关辅助理解的知识点,相信同学们看完后一定能平滑上手理解GCN!”
zenRRan
2019/12/26
3.7K0
【GNN】一文读懂图卷积GCN
推荐阅读
相关推荐
揭秘 DeepMind 的关系推理网络
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档