腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
GRU
模型不学习
、
、
、
、
我正在尝试在文本数据上拟合
GRU
模型,以预测26个标签中的一个。问题是模型并不是真正的学习(准确率在4%左右,这是随机的机会)。因为我知道这个问题是“可学习的”,所以我怀疑我的
代码
中有一个bug,但我不知道它是什么。 我的数据由每个标签(标记化和单词编码) 100K个句子组成(每个句子映射到26个标签中的一个)。
GRU
, self).= nn.
GRU
(embedding_dim, self.hidden_size, self.num_layers, batch_first=self.有没有人能发现
代码
中的
浏览 20
提问于2021-08-27
得票数 0
1
回答
是否可以创建自定义的Tensorflow
GRU
/LSTM单元?
我为Torch7
GRU
单元成功地完成了这一任务,并且成功地解决了特定的序列建模问题。我怀疑在Tensorflow中实现这一点并不简单,但也许我错了。
浏览 0
提问于2019-02-04
得票数 3
回答已采纳
1
回答
查找
Pytorch
GRU
功能的TensorFlow等效项
、
、
、
、
我对如何在TensorFlow中重构以下
Pytorch
代码
感到困惑。它同时使用输入大小x和隐藏大小h来创建
GRU
层 import torchtf.keras.layers.
GRU
(64, return_state=True) 然而,我意识到它并没有真正考虑到h或隐藏的大小
浏览 10
提问于2020-10-17
得票数 4
1
回答
从
PyTorch
到TensorFlow的
GRU
层转换
、
、
、
、
我正在尝试将以下
GRU
层从
PyTorch
(1.9.1)转换为TensorFlow(2.6.0): #
GRU
layermodel.add(Bidirectional(
GRU
(32, return_sequences=True, dropout=0.25, time_major=False))) model.add(Bidirectional(<e
浏览 106
提问于2021-10-21
得票数 0
1
回答
如何在放火枪中修饰rnn细胞?
、
、
、
如果我想改变RNN单元格(例如
GRU
单元格)中的计算规则,我应该做什么?谢谢~
浏览 0
提问于2019-02-27
得票数 1
回答已采纳
1
回答
如何在
pytorch
上实现堆叠的rnn (层数> 1)?
、
、
pytorch
中的
GRU
层接受一个名为num_layers的参数,您可以在其中堆叠RNN。然而,还不清楚后续的RNN如何确切地使用前一层的输出。递归层数。例如,设置num_layers=2将意味着将两个
GRU
堆叠在一起以形成堆叠的
GRU
,第二个
GRU
接收第一个
GRU
的输出并计算最终结果。这是否意味着
GRU
第一层的最后一个单元的输出将作为输入输入到下一层?或者这是否意味着每个单元的输出(在每个时间步)作为输入输入到下一层的相同时间步的单元?
浏览 6
提问于2021-09-23
得票数 2
1
回答
pytorch
中的torch.nn.
gru
函数的输入是什么?
、
、
我正在使用
gru
函数来实现RNN。这个RNN (
GRU
)在一些CNN层之后使用。有人能告诉我这里
GRU
函数的输入是什么吗?特别是,隐藏的大小是固定的吗?self.
gru
= torch.nn.
GRU
( hidden_size=128,num_layers=1, bidirectional=True) 根据我的理解,输入大小将是特
浏览 96
提问于2019-11-28
得票数 2
回答已采纳
1
回答
PyTorch
:用GPU训练比用CPU训练同样的东西错误更严重。
、
、
、
、
我有一个关于时间序列的下一步预测模型,它只是一个
GRU
,上面有一个完全连接的层。当我用CPU训练50次后,损失为0.10,而用GPU训练时,50次后损失为0.15。我有:
PyTorch
0.3.0CUDNN_MINOR %0编辑: 我还使用
PyTorch
的重量归一化torch.nn.utils.weight_norm在
GRU
和完全连接的层上。
浏览 1
提问于2018-01-25
得票数 6
回答已采纳
1
回答
TensorFlow:将GRUCell权重从compat.v1转换为tensorflow 2
、
、
、
、
我正在尝试将tensorflow 1中保存的模型转换为tensorflow 2,我正在将
代码
迁移到tensorflow 2,作为高。GRUCell有四个权重: 形状
gru
_cell/kernel
浏览 7
提问于2020-11-16
得票数 4
回答已采纳
1
回答
Pytorch
1.6中
GRU
的retain_graph问题
、
、
、
、
以下是重现此问题的MWE (在
PyTorch
1.6上)。) return self.brnn(x)
gru
2 =
GRU
2() loss_
gru
1.backward(retain_graph=True)
gru
1_out
浏览 45
提问于2020-10-14
得票数 3
回答已采纳
1
回答
GRU
如何输出以下值?
、
、
、
当我运行以下
代码
时 from tensorflow import keras x = np.ones((1,2,1))model.add(keras.layers.
GRU
( units = 1, activation='tanh', recurrent_activation='sigmoid',
浏览 28
提问于2021-02-28
得票数 0
回答已采纳
1
回答
在火炬中截断时间的反向传播(BPTT)
、
、
在
pytorch
中,我训练RNN/
GRU
/LSTM网络,方法是启动反向传播(通过时间):当序列很长时,我希望通过时间进行截断的反向传播,而不是使用整个序列的时间进行正常的反向传播但是,我在
Pytorch
中找不到任何参数或函数来设置截断的BPTT。我错过了吗?我应该自己在毕道尔编码吗?
浏览 3
提问于2018-12-24
得票数 6
1
回答
用于可变尺寸输入的小型批量培训
、
、
、
、
我是
PyTorch
和RNN的新手,所以我很困惑如何为我拥有的数据实现小型批量培训。有更多的这些数据,但我想保持简单,所以我只能理解如何实现小批量培训部分。我正在进行多类分类,基于LSTM/
GRU
在可变长度输入上训练的最终隐藏状态。我设法使它与批处理大小1(基本上是SGD)工作,但我正在努力实现小型批。DataLoader(inputs, batch_size=batch_size, shuffle=True) #do stuff using LSTM and/or
GRU
浏览 3
提问于2018-02-14
得票数 7
回答已采纳
1
回答
文件"train.py",第35行,clip_gradient模块= p.grad.data.norm()
、
、
、
、
我不确定为什么会出现这个错误:Initialized
GRU
modelNamespace(aggregation='mean', attention_widthmodel_type='RNN', opt='Adam', pretra
浏览 3
提问于2018-03-09
得票数 0
2
回答
pytorch
:
GRU
无法就地更新hidden_state
、
我在使用
pytorch
实现
GRU
网络时遇到了一个问题: 我的
代码
如下: import torch def __init__(self, device): self.h = torch.randn((1,1,5), device=device, dtype=torch.float) self.
GRU</em
浏览 129
提问于2021-04-06
得票数 0
1
回答
如何在
PyTorch
中向顺序层添加LSTM、
GRU
或其他递归层?
torch.nn.Conv1d(196, 196, kernel_size=15, stride=4),)self.rec_layer = nn.Sequential( torch.nn.Linear对于这个例子
浏览 1
提问于2018-06-12
得票数 2
1
回答
用于向量到字符序列翻译的LSTM方法
、
、
、
、
我想要建立一个序列到序列的模型,它需要一个2048年长的1s和0的向量(例如。1,0,1,0,0,0,1,0,0,1,...,1 )作为输入,并将其转换为已知的输出(可变长度) 1-20个长字符(例如。GBNMIRN、ILCEQZG或FPSRABBRF)。我看过一些github存储库,比如和。我正在使用python中的keras库。
浏览 3
提问于2017-06-19
得票数 3
回答已采纳
1
回答
在浏览器中完全运行经过训练的
PyTorch
LSTM/
GRU
模型的最佳方法
、
、
、
我正在考虑在浏览器(没有后端)中完全运行一个经过训练的
PyTorch
模型(包含LSTM/
GRU
层),作为交互式博客文章的一部分。我研究过ONNX.js,它工作得很好,但不适用于包含
GRU
层的模型。
浏览 19
提问于2020-02-21
得票数 4
1
回答
对于RNN/LSTM的序列数据,通常如何执行批处理
、
、
、
这个Udacity course notebook批处理数据的方式对我来说并不直观。 对于较长的数据序列,它们首先截断数据,以便可以用batch_size均匀划分数据。接下来,他们将数据.reshape()为(batch_size, -1)。然后,他们在这些批次的子序列上创建一个滑动窗口。当滑动窗口超出边界时,他们会在末尾添加假数据(通过回绕)。 这个提供的图表可能比我更好地解释: ? 我只是想知道这种做法是正常的,还是有不同的方法。这似乎很奇怪,批次是不连续的子序列。这不会使解释单个批处理的输出变得困难吗? 有没有更好的方法?视频中的这位女士直截了当地说了一些感人的话:“我不知道为
浏览 21
提问于2020-07-17
得票数 0
1
回答
如何在
pytorch
LSTM中自定义多个隐藏层单元的数量?
、
、
在
pytorch
LSTM、RNN或
GRU
模型中,有一个名为"“的参数,它控制LSTM中隐藏层的数量。这是理解
pytorch
LSTM框架的有用链接。如果有人能回答这个问题,我将不胜感激。
浏览 6
提问于2019-01-07
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
PyTorch 并行训练 DistributedDataParallel完整代码示例
使用PyTorch进行知识蒸馏的代码示例
Pytorch框架下CNN介绍及代码实现
使用PyTorch手写代码从头构建完整的LSTM
基础 GRU神经网络
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券