前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >深度学习算法(第23期)----RNN中的GRU模块

深度学习算法(第23期)----RNN中的GRU模块

作者头像
智能算法
发布2019-07-30 18:47:38
1.6K0
发布2019-07-30 18:47:38
举报
文章被收录于专栏:智能算法

上期我们一起学习了RNN的STML模块, 深度学习算法(第22期)----RNN中的LSTM模块术 今天我们一起简单学习下RNN中的另一个常用模块GRU模块 (Gated Recurrent Unit)。

上节,我们学过了STML模块,这节我们直接上图,now,GRU模块就长下面的样子:

从整体上看GRU和基本的RNN单元一样,有两个输入:当前时刻网络的输入值x(t), 上一时刻GRU的短时输出状态h(t-1);两个输出:当前时刻网络的输出值y(t), 当前时刻GRU短时输出状态h(t)。

其实GRU是LSTM的简化版本,并且表现的也挺不错。主要区别在于,GRU把LSTM中的两个状态c(t)和h(t)合并成了一个h(t)。

这里,其实我们可以这样看,假设控制开关r(t)和z(t)都为1的话,那么整个GRU就是一个最基本的RNN神经元。有了这个理解,就好办了,如果降低r(t),则进入主层的h(t-1)就会减少,也就是说r(t)决定了之前状态h(t-1)有多少能保留下来进入主层。如果降低z(t),那么1-z(t)就会增大,也就是说h(t-1)流到h(t)的东西就越多,相反主层的输出就较少。也就是说z(t)决定了多大程度上擦除之前状态。

其中GRU中的公式如下:

好了,至此,今天我们简单学习了RNN中GRU,希望有些收获,下期我们将一起学习下NLP中的Word Embeddings,欢迎留言或进社区共同交流,喜欢的话,就点个“在看”吧,您也可以置顶公众号,第一时间接收最新内容。


智能算法,与您携手,沉淀自己,引领AI!

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-07-29,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 智能算法 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档