腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
PyTorch
LSTM
中
的
batch_first
、
、
我是这个领域
的
新手,所以我仍然不了解
PyTorch
LSTM
中
的
batch_first。我尝试了别人向我推荐
的
代码,当batch_first = False时,它对我
的
训练数据起作用,它为官方
LSTM
和手动
LSTM
产生相同
的
输出。当batch_first = True时,手动
LSTM
的
哪个部分需要更改才能产生与官方
LSTM
相同
的
输出?
py
浏览 83
提问于2021-09-23
得票数 0
回答已采纳
1
回答
PyTorch
LSTM
辍学与Keras辍学
、
、
、
我正在尝试将我
的
顺序Keras网络移植到
PyTorch
。但我在
LSTM
单位遇到麻烦了 stateful = False, dropout = 0.5), stateful = False, dropout = 0.5), 我应该如何用
PyTorch
来表述这个问题呢尤其是辍学在
PyTo
浏览 2
提问于2020-06-09
得票数 1
2
回答
在
PyTorch
中
是否存在干净和可扩展
的
LSTM
实现?
、
、
、
、
我想自己创建一个
LSTM
类,但是我不想从头开始重写经典
的
LSTM
函数。深入研究
PyTorch
的
代码,我只发现至少涉及3-4个具有继承
的
类
的
脏实现: 作为一个明确
的<
浏览 2
提问于2018-05-04
得票数 11
回答已采纳
1
回答
应该使用哪个BiLSTM层
的
输出进行分类
、
、
、
我试图为文本分类问题实现一个BiLSTM层,并为此使用
PyTorch
。self.bilstm = nn.
LSTM
(embedding_dim,
lstm
_hidden_dim//2, batch_first=True, bidirectional=True)现在,在一些例子
中
(我在互联网上看到),人们正在通过ht通过Linear层并生成输出。有些人也在使用
lstm
_out。现在
浏览 0
提问于2021-04-29
得票数 0
3
回答
将
LSTM
Pytorch
模型转换为ONNX时出现问题
、
、
、
、
我正在尝试将我
的
LSTM
异常检测
Pytorch
模型导出到ONNX,但遇到错误。请看我下面的代码。class Model(torch.nn.Module): def __init__(self, input_dim, hidden_dim, layer_dim):_Linear', 'l_fc2_Linear', 'l_
lstm
_
LSTM
',
浏览 3
提问于2019-08-01
得票数 4
1
回答
如何在
pytorch
LSTM
中
自定义多个隐藏层单元
的
数量?
、
、
在
pytorch
LSTM
、RNN或GRU模型
中
,有一个名为"“
的
参数,它控制
LSTM
中
隐藏层
的
数量。我想知道,既然
LSTM
中有多个层,为什么参数"hidden_size“只是一个数字,而不是包含多个层
中
隐藏状态
的
数量
的
列表,如10、20、30。我在处理一个回归项目时遇到过,在这个项目中,我将(seq_len,batch,feature)
的
序列数据提供给
浏览 6
提问于2019-01-07
得票数 1
1
回答
有没有用于nn.LSTMCell
的
torch 0.4.0 nn.LayerNorm示例?
、
在
pytorch
0.4.0版本
中
,有一个模块。提前感谢
浏览 1
提问于2018-05-03
得票数 7
1
回答
Keras
LSTM
到
Pytorch
我使用以下代码将顺序
LSTM
应用于具有一个值
的
时间序列数据。它在Keras版本上工作得很好。我想知道怎样才能用
PyTorch
做同样
的
事情?tensorflow.keras.models import Sequential, Modeltime_steps = 24 metric =
浏览 16
提问于2020-07-15
得票数 0
1
回答
是否可以创建自定义
的
Tensorflow GRU/
LSTM
单元?
我想修改tf.nn.rnn_cell.GRUCell并为第二个输入添加另一个门,这样除了z更新门和r重置门之外,还有第三个g自定义门,用于网络
的
第二个输入,类似于和。 我为Torch7 GRU单元成功地完成了这一任务,并且成功地解决了特定
的
序列建模问题。我怀疑在Tensorflow
中
实现这一点并不简单,但也许我错了。有人能提供更多关于Tensorflow
中
自定义单元格
的
详细信息吗?
浏览 0
提问于2019-02-04
得票数 3
回答已采纳
1
回答
我想知道如何在
Pytorch
中
处理
LSTM
、
我们正在尝试使用
LSTM
重建模型。 从上面的图片中,我现在将它放在下面的形状
中
。(batch、
lstm
_num、dv_batch、dvector)我想知道是否有其他方法可以使用
lstm
_num作为循环或张量本身来处理4维数据。在原始版本
中
,我们得到一个 (batch,dv_batch,dvector)在三维数
浏览 3
提问于2020-05-25
得票数 0
1
回答
将火炬
LSTM
的
状态参数转换为Keras
LSTM
、
、
我试图将一个现有的经过训练
的
PyTorch
模型移植到Keras
中
。
LSTM
网络
的
Keras实现似乎有三种状态矩阵,而
Pytorch
实现有四种状态矩阵。例如,对于具有hidden_layers=64、input_size=512和输出size=128状态参数
的
双向
LSTM
,如下所示[<tf.Variable 'bidire
浏览 2
提问于2018-01-20
得票数 11
回答已采纳
3
回答
用顺序模块在
PyTorch
中
实现简单
的
线性扫描隧道调制
、
、
、
、
在
PyTorch
中
,我们可以通过多种方式定义体系结构。在这里,我想使用Sequential模块创建一个简单
的
LSTM
网络。在Lua
的
火炬里,我通常会说:model:add(nn.SplitTable(1,2))model:add(nn.Linear(hiddenSize,
浏览 4
提问于2017-05-23
得票数 6
1
回答
Keras
中
卷积递归网络
的
建模
、
、
、
但是,在将Conv2D层
的
输出连接到
LSTM
层时,我被卡住了。来自CNN层
的
输出将具有( batch_size,512,1,width_dash)
的
形状,其中第一个依赖于batch_size,最后一个依赖于输入
的
输入宽度(该模型可以接受可变宽度输入)。例如:一个形状为2,1,32,829
的
输入以(2,512,1,208)
的
形状输出。 现在,根据,我们必须做挤压(2),然后是permute(2,0,1),它将产生一个形状为208,2,512
的
张量。我试图
浏览 0
提问于2018-01-20
得票数 6
回答已采纳
2
回答
理解
PyTorch
LSTM
的
输入形状
、
、
、
这似乎是
PyTorch
中
关于
LSTM
最常见
的
问题之一,但我仍然无法弄清楚
PyTorch
LSTM
的
输入形状应该是什么。 即使在跟踪了几个帖子(、、)并尝试了解决方案之后,它似乎也不起作用。每个序列
的
MAX_LEN为384,序列
中
的
每个令牌(或word)
的
维数为768。因此,我
的
批处理张量可能具有以下形状之一:[12, 384, 768]或[384, 12, 768]。批处理将是我对
浏览 6
提问于2020-05-06
得票数 16
回答已采纳
1
回答
如何在python
中
从预先训练好
的
模型
中
获得权重,并在tensorflow中使用?
、
、
、
如何在
PyTorch
中
从预先训练好
的
模型
中
获取权重并在TensorFlow中使用?这是预先训练好
的
模型:
lstm
= torch.hub.load("BruceWen120/medal", "
lstm
")
浏览 3
提问于2021-11-28
得票数 0
1
回答
什么是等效于火炬
lstm
的
num_layers?
、
、
我是
PyTorch
的
初学者。从
lstm
中
,我了解到可以通过以下方法创建具有3层
的
堆叠式
lstm
:然后在forward函数
中
,我可以这样做但是,如果我创建了3个
lstm
层,如果我想自己实现相同
的
层叠层,那么这相当于什么呢?= torch.nn.
LSTM
(128, 512, num_layers=1) 在本例
浏览 0
提问于2021-09-16
得票数 0
回答已采纳
1
回答
如何将
LSTM
与Keras堆栈?
、
、
我
的
模型是: model.add(
LSTM
(128, input_shape=(10, VECTOR_SIZE), return_sequences, in add File "/Users/shamoon/.local/share/virtualenvs/
pytorch
-
lstm
-audio-Pq4zK81
浏览 4
提问于2020-02-15
得票数 0
回答已采纳
1
回答
LSTM
自动编码器
的
这些实现之间
的
区别?
、
、
、
具体而言,引发这个问题
的
是TensorFlow
的
LSTM
层版本
的
return_sequence参数。model.add(TimeDistributed(Dense(1))) 在查看
PyTorch
中
自动编码器
的
实现时例1 (
PyT
浏览 4
提问于2020-12-07
得票数 4
回答已采纳
1
回答
如何在
Pytorch
中
实现具有多个单元
的
LSTM
层?
、
、
我打算实现一个具有2层和每层256个单元
的
LSTM
。为此,我正在尝试理解
PyTorch
LSTM
框架。torch.nn.
LSTM
中
我可以编辑
的
变量有input_size、hidden_size、num_layers、bias、batch_first、dropout和bidirectional。但是,如何在一个层
中
拥有多个单元呢?
浏览 7
提问于2017-10-15
得票数 1
1
回答
使用cnn火把可变长度
的
文本
、
、
、
、
我是个生手,我想知道CNN
中
可变长度句子序列
的
最佳实践是什么。 我想使用CNN在快速文本生成
的
词条上进行特征选择,然后将输出输入到
LSTM
。
浏览 1
提问于2019-07-28
得票数 2
回答已采纳
点击加载更多
相关
资讯
使用PyTorch手写代码从头构建完整的LSTM
在Python中使用LSTM和PyTorch进行时间序列预测
理解LSTM中的各种阀
Pytorch中张量的高级选择操作
PyTorch中的多进程并行处理
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券