Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >教程审核的时候能不能认真点,我提交个教程空格都要讲究,这个教程命令都写错了,你不管?

教程审核的时候能不能认真点,我提交个教程空格都要讲究,这个教程命令都写错了,你不管?

提问于 2019-01-03 06:37:13
回答 1关注 0查看 278

回答 11

风研雨墨

发布于 2018-05-10 11:52:20

在人工智能领域,神经网络扮演着极其重要的角色。目前比较火热的卷积神经网络(CNN)主要用于分类,特别是在图像识别方面具有较大的优势。但是在一些动态的、与时间相关的领域效果并不如意。而LSTM在处理复杂的任务上具有CNN难以媲美的优势,LSTM更加真实地表征神经元的认知过程、更能体现人脑的逻辑与记忆功能。

LSTM中的顺序处理
LSTM中的顺序处理

如今有许多的AI项目开始应用LSTM。比如语言翻译,能够结合语境使得翻译后的内容更贴切;语音助手,更加“人性化”地与人交流;动态视频识别,能够根据视频中人物前后动作预测人物的意图等等。

姚啊姚

发布于 2018-05-10 11:33:09

早在1997年,就有大量学者针对LSTM进行研究。由于梯度消失和爆发的问题一直没有得到解决,所以早期LSTM一直没有得到很好的应用。

2012年是神经网络迅速发展的一年,各式各样的神经网络模型层出不穷。LSTM也不例外,Alex Graves针对LSTM作出了突破性的改进。

改进后的LSTM
改进后的LSTM

1.     引入了Forget(遗忘)门,有选择地将一部分信息丢弃掉。

2.      对LSTM的激活函数进行改进,比如sigmoid和tanh。

3.     加入了Peephole,即Celll对各个Gate的链接。

4.     训练过程不再使用截断算法,而是用FULL BPTT+trick进行算法,且获得的更好效果。

这使得许多问题取得了难以置信的成功,比如语音识别、语言建模、语言翻译、图像字幕等等。这是人工智能领域不可也缺少的一个环节。如果神经网络只是可以让机器像人类一样学习和思考,那么LSTM相当于让机器能够像人类一样既能思考又能记忆。

葡萄

发布于 2018-05-10 09:11:27

人脑有两个主要的功能:记忆和思考。然而当前的大多数神经网络没有办法做到这一点。这是当前人工智能的一个弊端所在。例如,智能语音助手只能回答你最近一次提出的问题,却不能联系之前的对话进行回答,表现就是它不能理解当前对话的语境,因而回答并不是那么“智能化”。

为了解决这一问题,有人提出了RNN(Recurrent Neural Network)循环神经网络

循环神经网络
循环神经网络

然而RNN在实际应用方面还有许多不足,其中最大的问题是后节点很难感知距离较远的前节点,也就是RNN只具有短期记忆,会忘事。这在深层网络中尤为突出。于是在RNN的基础上出现了LSTM(Long-Short Term Memory)长短期记忆网络。

长短期记忆网络
长短期记忆网络

LSTM与RNN的主要区别是LSTM加入了一种机制:有选择的让信息通过。可以结合我们有选择的遗忘一些不重要的事情来理解。在处理与时间序列相关的问题时,LSTM具有非常大的优势。因此LSTM目前被广泛应用于AI领域。比如:编码解码网络,机器翻译、自然语言处理、动态视频识别等等。

和开发者交流更多问题细节吧,去 写回答
相关文章
⻓短期记忆LSTM
在你阅读这篇文章时候,你都是基于自己已经拥有的对先前所见词的理解来推断当前词的真实含义。我们不会将所有的东西都全部丢弃,然后用空白的大脑进行思考。我们的思想拥有持久性。LSTM就是具备了这一特性。
大数据技术与机器学习
2019/11/20
1.7K0
长短期记忆网络(LSTM)初探
为解决序列过长导致展开时间步过长而引起的梯度消失与梯度爆炸问题,研究者们提出了长短期记忆网络(LSTM)。
月梦@剑心
2022/09/14
3060
长短期记忆网络(LSTM)初探
理解长短期记忆网络(LSTM NetWorks)
递归神经网络 人类并不是每时每刻都从头开始思考。正如你阅读这篇文章的时候,你是在理解前面词语的基础上来理解每个词。你不会丢弃所有已知的信息而从头开始思考。你的思想具有持续性。 传统的神经网络不能做到这
CSDN技术头条
2018/02/11
6570
理解长短期记忆网络(LSTM NetWorks)
理解长短期记忆网络(LSTM NetWorks)
人类并不是每时每刻都从头开始思考。正如你阅读这篇文章的时候,你是在理解前面词语的基础上来理解每个词。你不会丢弃所有已知的信息而从头开始思考。你的思想具有持续性。
bear_fish
2018/09/19
1.8K0
理解长短期记忆网络(LSTM NetWorks)
摘要:作者早前提到了人们使用RNNs取得的显著成效,基本上这些都是使用了LSTMs。对于大多数任务,它们真的可以达到更好的效果!写了一堆方程式,LSTMs看起来很吓人。希望通过这篇文章中一步一步的剖析,能更好理解它们。 递归神经网络 人类并不是每时每刻都从头开始思考。正如你阅读这篇文章的时候,你是在理解前面词语的基础上来理解每个词。你不会丢弃所有已知的信息而从头开始思考。你的思想具有持续性。 传统的神经网络不能做到这点,而且这似乎也是它的主要缺陷。比如,你想对电影中每个点发生的事件类型进行分类。目前还不清楚
用户1737318
2018/06/05
5470
LSTM(长短期记忆网络)原理与在脑电数据上的应用
LSTMs(Long Short Term Memory networks,长短期记忆网络)简称LSTMs,很多地方用LSTM来指代它。本文也使用LSTM来表示长短期记忆网络。LSTM是一种特殊的RNN网络(循环神经网络)。想要说清楚LSTM,就很有必要先介绍一下RNN。下面我将简略介绍一下RNN原理。
脑机接口社区
2022/08/24
1.2K0
LSTM(长短期记忆网络)原理与在脑电数据上的应用
长短期记忆网络 – Long short-term memory | LSTM
长短期记忆网络——通常被称为 LSTM,是一种特殊的 RNN,能够学习长期依赖性。由 Hochreiter 和 Schmidhuber(1997)提出的,并且在接下来的工作中被许多人改进和推广。LSTM 在各种各样的问题上表现非常出色,现在被广泛使用。
easyAI
2019/12/18
2.3K0
长短期记忆网络 – Long short-term memory | LSTM
长短期记忆神经网络(LSTM)介绍以及简单应用分析「建议收藏」
本文分为四个部分,第一部分简要介绍LSTM的应用现状;第二部分介绍LSTM的发展历史,并引出了受众多学者关注的LSTM变体——门控递归单元(GRU);第三部分介绍LSTM的基本结构,由基本循环神经网络结构引出LSTM的具体结构。第四部分,应用Keras框架提供的API,比较和分析简单循环神经网络(SRN)、LSTM和GRU在手写数字mnist数据集上的表现。
全栈程序员站长
2022/09/16
36.5K0
利用LSTM(长短期记忆网络)来处理脑电数据
LSTMs(Long Short Term Memory networks,长短期记忆网络)简称LSTMs,很多地方用LSTM来指代它。本文也使用LSTM来表示长短期记忆网络。LSTM是一种特殊的RNN网络(循环神经网络)。想要说清楚LSTM,就很有必要先介绍一下RNN。下面我将简略介绍一下RNN原理。
脑机接口社区
2020/07/01
1.1K0
RNN长短期记忆(LSTM)是如何工作的?
长短期记忆(Long Short-Term Memory,LSTM)是循环神经网络(Recurrent Neural Network,RNN)的一种改进结构,解决了传统RNN在处理长序列数据和长期依赖问题上的困难。本文将详细介绍LSTM的原理、结构以及在自然语言处理和时间序列预测等领域的重要应用。
网络技术联盟站
2023/07/04
2.7K0
RNN长短期记忆(LSTM)是如何工作的?
在Python中用一个长短期记忆网络来演示记忆
长期短期记忆(LSTM)网络是一种能够在长序列上学习的递归神经网络。
用户1210890
2018/02/11
2.5K0
在Python中用一个长短期记忆网络来演示记忆
【思维导图】利用LSTM(长短期记忆网络)来处理脑电数据
LSTMs(Long Short Term Memory networks,长短期记忆网络)简称LSTMs,很多地方用LSTM来指代它。本文也使用LSTM来表示长短期记忆网络。LSTM是一种
脑机接口社区
2022/08/25
4160
【思维导图】利用LSTM(长短期记忆网络)来处理脑电数据
白话--长短期记忆(LSTM)的几个步骤,附代码!
版权声明:本文为博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明。
mantch
2019/08/29
1.4K0
白话--长短期记忆(LSTM)的几个步骤,附代码!
RNN循环神经网络 、LSTM长短期记忆网络实现时间序列长期利率预测
2017 年年中,R 推出了 Keras 包 _,_这是一个在 Tensorflow 之上运行的综合库,具有 CPU 和 GPU 功能。本文将演示如何在 R 中使用 LSTM 实现时间序列预测。
拓端
2022/03/05
1.3K0
RNN循环神经网络 、LSTM长短期记忆网络实现时间序列长期利率预测
RNN循环神经网络 、LSTM长短期记忆网络实现时间序列长期利率预测
本文约1700字,建议阅读5分钟本文将演示如何在 R 中使用 LSTM 实现时间序列预测。 全文链接:http://tecdat.cn/?p=25133 2017 年年中,R 推出了 Keras 包 
数据派THU
2023/05/11
6550
RNN循环神经网络 、LSTM长短期记忆网络实现时间序列长期利率预测
基于长短期记忆神经网络LSTM的多步长时间序列预测
长短时记忆网络(LSTM)是一种能够学习和预测长序列的递归神经网络。LSTMs除了学习长序列外,还可以学习一次多步预测,这对于时间序列的预测非常有用。LSTMs的一个困难在于,它们可能难以配置,而且需要大量的准备工作才能获得适合学习的格式的数据。
代码医生工作室
2020/06/16
7K0
基于长短期记忆神经网络LSTM的多步长时间序列预测
记忆网络RNN、LSTM与GRU
RNN 结构 训练 应用 RNN Variants LSTM 结构 梯度消失及梯度爆炸 GRU 结构 一般的神经网络输入和输出的维度大小都是固定的,针对序列类型(尤其是变长的序列)的输入或输出数据束手
用户1147754
2018/01/02
1.6K0
记忆网络RNN、LSTM与GRU
长短时记忆网络(LSTM)
RNN最主要的问题就是长期依赖问题,也就是RNN很容易接受和处理最近的上下文信息,比如“天气预报说明天早上要下大雨,出门一定要记得带_____。”像这样的短期信息,由于相关信息“下大雨”和要填的词之间的距离比较短,RNN就可以很容易地学会利用过去的信息,预测出来_____里面应该填“雨伞”。可是当有些时候当相关的信息距离需要预测的位置比较远时,比如:“我出生在中国,但是后来随父母移民到了美国,我......(省略200个字),因此我能讲一口流利的_____。” 现在再用RNN来预测_____里面的词时就存在一定的困难,依靠最近的信息很难预测出下一个词是什么。
用户6021899
2020/01/17
1.3K0
长短时记忆网络(LSTM)
【深度学习研究系列】漫谈RNN之长短期记忆模型LSTM
推送第三日,量化投资与机器学习公众号将为大家带来一个系列的 Deep Learning 原创研究。本次深度学习系列的撰稿人为 张泽旺 ,DM-Master,目前在研究自动语音识别系统。希望大家有所收获
量化投资与机器学习微信公众号
2018/01/29
1.3K0
【深度学习研究系列】漫谈RNN之长短期记忆模型LSTM
从零开始学自然语言处理(二十)—— 强大的长短期记忆网络(LSTM)(上)
RNN由于其结构特点,可以将之前的信息带到当前时刻t中,这对于处理自然语言序列问题十分重要,例如我们预测“今天 天气晴朗 , 天空 是 蓝色”中的最后一个词“蓝色”,通过训练后的RNN可以较好做到这点,此时要预测的内容只依赖于之前较少的几个词,也就是说当前要预测内容位置和提供该预测信息的内容位置距离较短,如果将相关内容信息的节点标识为蓝色,可以见下图:
数据科学实战
2020/05/22
5270
从零开始学自然语言处理(二十)—— 强大的长短期记忆网络(LSTM)(上)

相似问题

腾讯云AI有哪些应用?

72.1K

【有奖问答】程序生涯中有哪些记忆犹新的面试体验?(已完结)

13714

腾讯有哪些AI的技术?

1545

AI架构构建中关键点是哪些?

012

Zabbix 中有哪些组件?

1333
相关问答用户
新浪微博 | 高级总监擅长4个领域
到家集团 | 技术VP擅长5个领域
擅长5个领域
添加站长 进交流群

领取专属 10元无门槛券

AI混元助手 在线答疑

扫码加入开发者社群
关注 腾讯云开发者公众号

洞察 腾讯核心技术

剖析业界实践案例

扫码关注腾讯云开发者公众号
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档