腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Tensorflow
:
如果
一个
LSTM
被
“
重用
”
于
新
的
输入
,
它
的
隐藏
状态
会被
重置
吗
?
在
一次
向前
传球
中
、
问:我有
一个
LSTM
单元格,变量作用域名为'rnn‘,并将其赋值为' scope’。
如果
我
在
图中使用scope.reuse_variables(),我知道权重
被
重用
于
新
的
输入
X… 但是
如果
权重
被
重用
,
LSTM
隐藏
状态
会自动
重置
吗
?或者我必须在每次调用scope.reuse_
浏览 18
提问于2017-07-06
得票数 2
2
回答
训练和测试期间
LSTM
中
的
状态
重置
、
、
、
我正在尝试理解和实现
LSTM
。我知道他们需要定义
一个
序列长度T,并且训练是分批进行
的
。所以我们向网络提供了几个长度为T
的
序列。现在
LSTM
需要
一个
先前
的
状态
作为
输入
,据我所知,它被初始化为零。我
的
问题是,
在
每个序列之后,
状态
会
重置
为零
吗
?例如,我有
一个
序列1,
状态
向量在这个序列
中
向前<
浏览 1
提问于2017-01-23
得票数 0
1
回答
我能在Keras
中
的
输入
数据集之间
重置
RNN
的
隐藏
状态
吗
?
、
、
我正在训练
一个
RNN,
它
使用
一个
由不同来源组成
的
大型数据集。我不希望这一套
的
历史蔓延到下一部。这意味着,
在
发送下一组之前,我希望
在
一组结束时
重置
隐藏
状态
。我怎么才能和Keras一起这么做呢?我试图做
的
是
在
每次
输入
新
的
数据集时
重置
lstm
隐藏
状态
,因此不会从p
浏览 1
提问于2017-03-04
得票数 3
1
回答
长时间
LSTM
预测
、
、
、
我正在使用
一个
LSTM
,以5个序列作为
输入
来预测另
一个
5个,我想知道如何预测超过5个时间步骤。我想这和hidden_dim有关,但我想不出来。这是我
的
密码 def __init__(self, seq_len=5, n_features=256, n_hidden=256, n_layers= seq_len self.n_layers = n_laye
浏览 3
提问于2020-11-11
得票数 0
回答已采纳
1
回答
在
Tensorflow
中
,如何将
一个
LSTM
的
输出和文本一起
输入
另
一个
LSTM
?
、
、
、
我试图将
一个
LSTM
层
的
输出
输入
到另
一个
LSTM
层,以及该层
的
文本。提供给两个
LSTM
的
文本是不同
的
,我
的
目标是第二个
LSTM
在
第
一个
LSTM
理解
的
基础上提高对其文本
的
理解。我可以尝试
在
Tensorflow
中
这样实现
它
:
浏览 0
提问于2018-02-02
得票数 0
回答已采纳
1
回答
为什么RNN
的
隐藏
状态
被
初始化为每
一个
时代而不是每一批?
、
、
为什么RNNs/
LSTM
/GRUs
的
隐藏
状态
通常只
在
一个
时代结束后才重新初始化,而不是
在
批处理完成后重新初始化?
浏览 0
提问于2023-01-25
得票数 0
回答已采纳
1
回答
为什么非常简单
的
PyTorch
LSTM
模型不学习?
、
、
、
我正在尝试做非常简单
的
学习,以便我能够更好地理解PyTorch和
LSTM
的
工作原理。为此,我试图学习
一个
从
输入
张量到输出张量(相同形状)
的
映射,这个映射值是值
的
两倍。因此,[1 2 3]作为
输入
应该学习[2 4 6]作为输出。5) * 2我
的
LS
浏览 3
提问于2020-02-12
得票数 4
回答已采纳
2
回答
TensorFlow
:记住下一批
的
LSTM
状态
(有
状态
的
LSTM
)
、
、
、
、
给定
一个
经过训练
的
LSTM
模型,我想对单个时间步执行推断,即下面示例
中
的
seq_length = 1。
在
每个timestep之后,需要为下
一个
“批处理”记住内部
LSTM
(内存和
隐藏
)
状态
。
在
推理
的
最开始,根据给定
的
输入
计算内部
LSTM
状态
init_c, init_h。然后将它们存储
在
浏览 49
提问于2016-07-07
得票数 29
回答已采纳
1
回答
LSTM
还记得以前
的
窗口
吗
?还是
隐藏
状态
重置
?
、
、
、
现在我
的
问题是,在给定
的
时代,对于
一个
给定
的
步骤,
LSTM
是否还记得它所看到
的
前
一个
窗口,还是在看到每个窗口之后
LSTM
的
内存
重置
?
如果
它
记得以前
的
窗口,那么内存是否只
在
一个
时代结束时
重置
?我曾见过类似的问题,如或,但我要么不太明白这个解释,要么我不确定是否解释了我想要
的
东西。我正在寻找更多关
浏览 9
提问于2022-05-19
得票数 0
回答已采纳
2
回答
我应该使用哪个NN来处理时间序列数据集,
它
的
模式随着时间
的
推移而改变。
、
、
、
我正在使用(监督)
tensorflow
深度学习来分析时间序列数据集.
tensorflow
代码给出了一系列
的
输入
,并根据每个
输入
,神经网络必须在不久
的
将来预测输出值。对于训练来说,过去有很多预先标注
的
输入
/输出。每个
输入
是每个时间步骤
的
状态
数组,每个
输入
都被标记为
一个
结果值。到目前为止,这种任务
在
深度学习
中
很常见,我使
浏览 0
提问于2018-04-28
得票数 3
回答已采纳
1
回答
用
LSTM
神经网络预测Fibonacci
、
、
、
新
的
神经网络,所以请纠正我
的
语法。 我试图创建
一个
LSTM
来预测斐波纳契序列。当我运行下面的代码时,损失仍然非常高(围绕35339663592701874176)。为什么
输入
的
形状必须是(batch_size, timesteps, input_dim)?
在
我
的
例子
中
,我有100数据条目,这就是我
的
batch_size,而斐波纳契序列接受2
输入
,所以这就是input_dim,但是在
浏览 0
提问于2020-12-18
得票数 1
回答已采纳
5
回答
keras什么时候
重置
LSTM
状态
?
、
、
我读过各种各样
的
关于
它
的
文章,似乎没有人回答这个非常基本
的
问题。
它
总是模棱两可: model.fit
浏览 4
提问于2017-05-10
得票数 54
回答已采纳
1
回答
LSTM
的
时间反向传播(BPTT)
、
、
目前,我正试图理解
TensorFlow
中
的
LSTM
的
BPTT。我得到参数"num_steps“用于RNN展开和错误反向传播
的
范围。我有
一个
一般性
的
问题,这是如何运作
的
。问题:,哪些路径
被
反向传播了那么多步骤?恒等误差旋转木马由公式5创建,反传播(s(t)->s(t-1))
的
导数对于所有时间步骤都是1。这就是为什么
LSTM
捕
浏览 4
提问于2016-11-29
得票数 1
3
回答
Keras层实现背后
的
架构是什么?
、
、
如何将
输入
维度转换为Keras
中
LSTM
层
的
输出维度?通过阅读Colah
的
,似乎"timesteps" (AKA,input_dim或input_shape
中
的
第
一个
值)
的
数量应该等于神经元
的
数量,而神经元
的
数量应该等于这个units层
的
输出数(
LSTM
通过阅读,我了解
输入
的
形状。令我困惑
的</em
浏览 0
提问于2018-04-18
得票数 6
回答已采纳
2
回答
理解Seq2Seq模型
、
、
这是我对
LSTM
序列
的
理解。假设我们正在处理
一个
问答设置。第二组(蓝色)是一对多
的
LSTM
,与第一组
LSTM
具有不同
的
权重。
浏览 10
提问于2017-09-22
得票数 7
回答已采纳
11
回答
num_units
在
tensorflow
BasicLSTMCell
中
是什么?
、
、
、
在
MNIST示例
中
,我不明白“
隐藏
层”是什么意思。这是假想层形成
的
,当你表示
一个
展开
的
RNN随着时间
的
推移? 为什么num_units = 128
在
大多数情况下都是?
浏览 18
提问于2016-06-18
得票数 58
回答已采纳
1
回答
Keras模型
的
batch_input_shape
、
、
、
我正在尝试用
LSTM
作为第
一个
隐藏
层和Keras库(
tensorflow
后端)来构建
一个
神经网络。我很难理解如何重塑我
的
数据,并使用batch_input_size参数将其提供给有
状态
的
LSTM
。我
的
输入
是
一个
100秒
的
时间序列采样
在
10千赫。基本上,我有100*10000种不同
的
时间值。我有3个不同
的
可观测值
浏览 0
提问于2018-12-07
得票数 0
2
回答
在
纯
TensorFlow
中使用有
状态
Keras模型
、
、
我有
一个
有
状态
的
RNN模型,有几个GRU层是
在
Keras
中
创建
的
。 现在我必须从Java运行这个模型,所以我将模型作为protobuf,并从加载
它
。这个模型必须是有
状态
的
,因为功能将在
一个
时间内提供
一个
时间步骤.据我所知,为了
在
TensorFlow
模型
中
实现
状态
,每次执行会话运行程序时,我都必须以某种方式
在
最后
浏览 3
提问于2017-12-14
得票数 1
回答已采纳
1
回答
LSTM
输入
混乱
、
、
、
、
我试着理解
LSTM
输入
已经有一段时间了,我想我理解了,但是我一直对如何实现它们感到困惑。
在
指定
LSTM
时,可以指定单元格数和
输入
形状(我对
输入
形状有问题)。单元格数指定了多少个单元格应该查看给定
的
数据,而不影响所需
的
输入
形状。
输入
形状(当
状态
)按批处理大小、批处理
中
的
时间步骤和时间步骤<
浏览 8
提问于2020-12-29
得票数 0
回答已采纳
4
回答
理解多层
LSTM
、
、
我正在努力理解和实现多层
LSTM
。问题是我不知道他们是怎么联系
的
。我有两个想法:
在
每个时间步骤
中
,第一
LSTM
的
隐藏
状态
H将成为第二
LSTM
的
输入
。
在
每个时间步骤
中
,第一
LSTM
的
隐藏
状态
H将成为传感器
LSTM
的
隐藏
状态</e
浏览 8
提问于2017-11-24
得票数 3
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Tensorflow系列专题:门控循环神经网络LSTM与GRU
一文了解LSTM和GRU背后的秘密
使用Keras进行深度学习:(六)GRU讲解及实践
LSTM和GRU有什么联系和区别?
机器学习100天-Day11 Tensorflow实现RNN算法
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券