腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
来自
密集
层
的
LSTM
初始
状态
、
、
我正在对时间序列数据使用
lstm
。我有关于时间序列
的
不依赖于时间
的
特征。想象一下序列中
的
公司股票和非时间序列特征中
的
公司位置之类
的
东西。这不是用例,但它
的
想法是相同
的
。Dense(8, activation='relu')(dense_1)
lstm
=
LSTM
(8
浏览 1
提问于2018-01-13
得票数 7
回答已采纳
1
回答
Keras
lstm
和
密集
层
、
、
密集
层
如何改变
来自
LSTM
层
的
输出?从前一
层
的
50个形状
的
输出中,我如何从用于预测
的
密集
层
获得大小为1
的
输出?假设我有一个基本模型: model = Sequential()model.add(Dense(1, activation="softmax&quo
浏览 16
提问于2019-09-01
得票数 1
回答已采纳
1
回答
基于stateful=True
的
多层
LSTM
网
、
、
我
的
问题是,这段代码有意义吗?如果这有意义的话,目的应该是什么呢?model.add(
LSTM
(18, return_sequences=True,batch_input_shape=(batch_size,look_back,dim_x), stateful=True))model.add(
LSTM
(50,return_sequences=False,stateful=False))model.add(Dense(1, activation
浏览 3
提问于2018-10-26
得票数 2
回答已采纳
1
回答
如何为RNN
的
每个时间戳建立一个
密集
层
,并将每个
密集
的
输出反馈到RNN中?
、
如图所示,我需要获取每个
Lstm
时间戳
的
状态
,并将它们应用于
密集
层
以进行有监督
的
学习。然后将该
密集
层
的
输出与
Lstm
的
下一时间戳
的
状态
一起使用。通常,我希望对RNN
的
每个步骤应用监督学习,并将输出反馈到下一个时间戳。我如何在Keras中实现这一点?
浏览 0
提问于2017-06-12
得票数 2
1
回答
Keras Seq2Seq游戏攻略
、
、
、
、
几周前,Seq2Seq模型
的
Keras简介已经发布,可以找到。我并不真正理解这个代码
的
一个部分:decoder_outputs, activation='softmax')这里定义了decoder_
lstm
。它是一个维度latent_dim
浏览 4
提问于2017-10-10
得票数 3
回答已采纳
2
回答
LSTM
的
model.reset_states是否会影响模型中
的
其他非
LSTM
层
?
、
、
、
、
我在tf.keras中使用
LSTM
的
状态
模式,当我处理了序列数据时,需要手动执行reset_states,正如描述
的
。似乎人们通常会做model.reset_states(),但在我
的
例子中,我
的
LSTM
层
嵌入到了一个更加复杂
的
网络中,其中包含了其他各种
层
,比如稠密
层
、Conv
层
等等。我
的
问题是,如果我只是在我
的
主模型上调用model.reset
浏览 9
提问于2020-01-08
得票数 3
回答已采纳
1
回答
如何修复AttributeError:“NoneType”对象在使用曼哈顿距离创建
lstm
模型时没有属性“_inbound_nodes”。
、
、
、
我正在尝试创建一个神经网络模型,它使用曼哈顿
LSTM
(例如 )返回两个句子
的
相似度分数。我使用quora-问题对数据集,并使用google生成它们
的
嵌入。inbound_nodes[node_index]这是我已经尝试过
的
。请注意,返回
的
嵌入具有形状( 768 ),即是大小为768
的
向量,如此1.2e+05 2
浏览 4
提问于2019-04-10
得票数 0
回答已采纳
1
回答
RNN - Dense、
LSTM
、GRU
的
最后一
层
...?
、
、
、
我知道您可以在Keras
的
RNN架构中使用不同类型
的
层
,这取决于您所遇到
的
问题
的
类型。我指的是例如layers.SimpleRNN、layers.
LSTM
或layers.GRU。因此,假设我们(使用Keras中
的
函数式API ):
lstm
_1=True, name='
lstm</e
浏览 26
提问于2021-05-20
得票数 1
回答已采纳
1
回答
torch.nn.
lstm
隐藏
状态
的
初始
化
、
作为num_layers在本链接中
的
解释:rnn = nn.
LSTM
(1
浏览 5
提问于2022-03-26
得票数 1
2
回答
Keras输入
层
、
在我
的
模型中添加
LSTM
层
之前,我不确定是否需要添加一个
密集
的
输入
层
。例如,使用以下模式:model = Sequential()model.add(Dense(5, activation="linear"))
LSTM
层
是输入
层
,<em
浏览 2
提问于2020-11-20
得票数 0
回答已采纳
1
回答
对RNN
层
中
的
每个输出应用
密集
、
我正在尝试将以下Keras代码转换为纯Tensorflow,但在向双向RNN输出
的
每个时间步添加
密集
层
时遇到了问题:self.model = Sequential(), activation='relu', init='he_normal')))以下是tensorflow
的
初始
代码:
lstm
_cell_
浏览 7
提问于2017-09-27
得票数 3
1
回答
Keras错误不兼容形状:[32,168,24] vs. [32,24]
、
、
、
、
我正在训练时间序列预测
的
神经网络。, y.shape)该培训在此体系结构上运行良好:model.add(
LSTM
(16, return_sequences=True, input_shape=(7*24, X.shape[1]))) model.add(
LSTM
(32, return_sequences=True, input_shape=(7*24, X.shape
浏览 1
提问于2021-01-30
得票数 2
回答已采纳
1
回答
多层密层叠加
LSTM
、
、
Andrew通过相互叠加递归
层
来讨论深度RNN体系结构。然而,他指出,由于结构中已经复杂
的
时间依赖计算,这些通常限制在2或3个递归
层
。但他补充说,人们通常会在这些递归
层
(如从a3<1>延伸出来
的
蓝色框)后面添加“一堆没有水平连接
的
深层层”。我想知道他是简单地说要把稠密
的
层
堆在层叠
的
层层之上,还是更复杂呢?在Keras中是这样
的
:model.add(ke
浏览 0
提问于2019-07-30
得票数 1
1
回答
LSTM
之后是Keras
的
稠密
层
、
、
我正在研究
LSTM
和
LSTM
AutoEncoders,使用Keras为多变量时间序列数据尝试不同类型
的
体系结构。由于在
LSTM
中使用relu实际上并不实际,因为存在爆炸梯度,所以我在
LSTM
之后添加了一个
密集
的
层
,因此它类似于:model.add(
LSTM
(number_of_features: 这个完全连接
的
致密
层
是否仅连接到
LSTM
浏览 0
提问于2020-11-10
得票数 3
回答已采纳
1
回答
将
密集
层
连接到
LSTM
体系结构
、
、
、
、
出于说教
的
原因,我正试图在简单
的
无意义环境中实现
LSTM
结构。我清楚地知道如何输入数据,但不知道如何输出。假设我给出一个维数(n,b,d)
的
张量,其中:·n是序列
的
长度·b是批大小(在我
的
例子中是时间戳)·d数据集中
的
每个示例(行)
的
特征数标记为0-1。然而,当我将数据输入到最小网络时,我得到了隐藏
状态
h_out,它具有与网络隐藏大小相同
的
维数。我如何才能获得一个数字,可以比较我
的
标签和正确
浏览 0
提问于2018-12-30
得票数 4
回答已采纳
1
回答
如何实现每个内存块具有多个单元
的
LSTM
层
?
、
我打算每层用多个存储单元块(或多个
LSTM
单元,
LSTM
单元是内存块及其门
的
集合)在Pytorch中实现
LSTM
,但基类torch.nn.
LSTM
似乎只能实现多层
LSTM
,每个
层
只有一个
LSTM
单元:
lstm
= torch.nn.
LSTM
(input_size, hidden_size, num_layers) input_size是网络
的
输入维度
浏览 2
提问于2017-10-20
得票数 1
1
回答
堆叠
LSTM
网络是如何工作
的
?
、
、
我在理解堆叠
LSTM
网络中
的
信元流时遇到了一些困难。) return model 1)
来自
第一个
LSTM
层
的
输入是否到达第二个
LSTM
层
?2)我读到在
LSTM
中,我们将以前
的
隐藏
状态</
浏览 8
提问于2020-09-23
得票数 0
1
回答
如何在Keras中训练
LSTM
的
初始
状态
?
、
、
、
我在Keras中工作,我有一个
LSTM
,我为它指定了一个intial_state=h0。现在,我希望h0成为一个可训练
的
变量。我该怎么做呢?目前我丑陋
的
解决方案在于使用一个等于0
的
虚拟输入,并学习
初始
状态
作为
密集
层
的
输出(=
层
偏置,因为我给出了一个虚拟input=0),输入由虚拟输入给出: dummy_inp = Input((1,), namedummy_inp_zero = Lambda(lambda t: t*
浏览 1
提问于2018-04-03
得票数 4
3
回答
Keras-rl中
的
Keras
LSTM
层
、
、
、
问题是,当我定义模型时,我需要在体系结构中使用
LSTM
层
: model = Sequential()model.add这与
LSTM
的
使用和下面的代码行有关: tf.compat.v1.disable_eager_execution() 使用
密集
层
而不是
LSTM
: model = Sequential()model.ad
浏览 104
提问于2020-01-22
得票数 0
回答已采纳
1
回答
如何恢复Keras
状态
、
我有一个
LSTM
模型,当我处理一个批处理时,我想在几个进程之后重置
LSTM
layer.Then
的
状态
,我想恢复
LSTM
的
原始
状态
(我在上面几个进程中学到了新
的
权重)并继续处理。我知道我可以使用reset_state()函数来重置
LSTM
状态
。如何恢复
LSTM
状态
?
浏览 2
提问于2017-04-10
得票数 2
回答已采纳
点击加载更多
相关
资讯
人机协同中的初始、拟合、变化、压缩状态
来自HTTP状态码的自我告白
物联网信息安全更大的安全隐患来自感知层
深度学习之RNN、LSTM及正向反向传播原理
派盾:攻击Elephant Money的初始资金来自Tornado.Cash,3472枚ETH收益已桥接至以太坊
热门
标签
更多标签
云服务器
ICP备案
实时音视频
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券