腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(39)
视频
沙龙
1
回答
"input“是用作参数名(在PyTorch中)时会导致错误的关键字吗?
、
所以我有一行代码:但如果我去掉“输入”,它就会神奇地自我修复: packed_embeddings =
pack_padded_sequence
浏览 22
提问于2018-07-26
得票数 7
回答已采纳
2
回答
RNN是如何处理填充序列的?
在pytorch中,我们可以给出一个填充序列作为RNN的输入。从中,RNN的输入可以如下所示。 packed = torch.nn.utils.rnn.pack_padded_sequence(embedded, input_lengths)outputs, output_lengths = torch.nn.utils.rnn.pad_packed_sequence(outp
浏览 0
提问于2017-07-06
得票数 14
回答已采纳
2
回答
为什么我们要在PyTorch中“打包”序列呢?
、
、
、
、
我明白为什么我们“垫”他们,但为什么“包装”(通过
pack_padded_sequence
)是必要的?
浏览 1
提问于2018-06-25
得票数 159
回答已采纳
1
回答
如何在PyTorch中建立具有自定义隐藏层的神经网络模型(S)并与PackedSequence兼容
、
、
我想做一个RNN,例如,有更多的隐藏层或层规范化。我认为解决方案可能是子类nn.RNN,但我不知道如何做到这一点。
浏览 0
提问于2023-05-15
得票数 0
回答已采纳
1
回答
使用多个GPU运行LSTM将获得“输入和隐藏的张量不在同一设备上”。
、
、
、
我正在努力训练一个LSTM层在火把。我正在使用4个GPU。初始化时,我添加了.cuda()函数,将隐藏层移动到GPU。但是,当我使用多个GPU运行代码时,我得到的是运行时错误:我试图在前向函数中使用.cuda()函数来解决这个问题,如下所示:这
浏览 3
提问于2019-02-04
得票数 17
2
回答
如何在不按长度在PyTorch中重新排序的情况下,将批处理输入LSTM?
我是新来的,我遇到了一些麻烦。我想建立一个等级模型来判断问题和答案的相似性(包括正确的答案和错误的答案)。我用LSTM做编码器。
浏览 5
提问于2017-11-22
得票数 0
回答已采纳
1
回答
不一致(重复)填充的RNN (使用Py手电的
Pack_padded_sequence
)
、
、
、
、
packed =
pack_padded_sequence
(seq, lens, batch_first=True, enforce_sorted=False) 当使用(最好) PyTorch功能通过LSTM
浏览 7
提问于2022-01-21
得票数 0
1
回答
当我们有
pack_padded_sequence
()时,为什么需要pack_sequence()?
、
为什么同时存在
pack_padded_sequence
()和pack_sequence()方法?
浏览 0
提问于2020-01-27
得票数 4
回答已采纳
2
回答
在pytorch中,向前传递和推理有什么不同?
、
、
、
、
看看Tacotron2模型的编码器部分: def forward(self, x, input_lengths): x = x.transpose(1, 2) x = nn.utils.rnn.pack_padded_sequence( self.lstm.flatten_parameters
浏览 13
提问于2019-08-05
得票数 0
2
回答
如何使用具有相同标签的多个可变长度输入的
pack_padded_sequence
、
、
有什么办法可以用
pack_padded_sequence
吗?如果是这样,我应该如何排序我的序列?
浏览 1
提问于2018-03-09
得票数 5
回答已采纳
1
回答
Pytorch: TypeError“torch.LongTensor”对象是不可逆的
我正在尝试用pytorch完成一个NLP任务,我使用了以下代码来打包我的一批句子。 # batch size * max length Variable target_batch = target_data[iter:iter + batch_size] input_batch_length = input_leng
浏览 8
提问于2018-02-26
得票数 1
1
回答
将PackSequence参数传递给LSTM
、
根据我的理解,pack_sequence和
pack_padded_sequence
返回一个PackedSequence,它的data属性应该始终是一维的。
浏览 0
提问于2018-11-07
得票数 1
回答已采纳
1
回答
RNN中填充和掩蔽序列的实现
、
、
我读过像pad_sequence(),pack_sequence(),
pack_padded_sequence
()等函数,但是我已经和所有这些函数混淆了。或者还有其他我不知道的“秘密”方式?
浏览 0
提问于2023-05-30
得票数 0
1
回答
通过预先训练好的单词嵌入(如GloVe ),使用LSTM创建问题表示
、
、
、
、
as nnfrom torch import optim embeds = self.word_embeddings(sentence) packed_output =
pack_padded_sequence
浏览 56
提问于2021-03-31
得票数 0
回答已采纳
2
回答
从打包的序列中获取每个序列的最后一项
、
、
、
、
我尝试了以下几种方法from torch.nn.utils.rnn import
pack_padded_sequence
, pad_packed_sequence p =
pack_padded_sequence
(input, lengths, batch_first=True) gru = torch.nn.GRU
浏览 20
提问于2019-03-28
得票数 1
回答已采纳
1
回答
使用cnn火把可变长度的文本
、
、
、
、
我是个生手,我想知道CNN中可变长度句子序列的最佳实践是什么。现在,我知道py手电筒有一个动态图,我想知道除了填充之外,还有什么方法可以做到这一点吗?
浏览 1
提问于2019-07-28
得票数 2
回答已采纳
1
回答
使用
pack_padded_sequence
- pad_packed_sequence时训练精度下降和损失增加
、
、
我试着用
pack_padded_sequence
和pad_packed_sequence来训练一个双向的lstm,但是随着损耗的增加,精度不断下降。# embedding out2 = self.embed(X[1].to(device)) out = self.linear(out) return iout,
浏览 6
提问于2021-03-24
得票数 1
回答已采纳
1
回答
RuntimeError:当`enforce_sorted`为True时,`lengths`数组必须按降序排序。- Pytorch
、
、
、
You can pass `enforce_sorted=False` to
pack_padded_sequence
and/or pack_sequence to sidestep this requirement
浏览 350
提问于2021-06-18
得票数 0
1
回答
PyTorch中的掩蔽与实例规范化
、
目前,np.nanvar....Permute和PyTorch缺乏与np.nanmean和np.nanmean相当的功能,也没有转换成可接受的数据安排;没有这样的方法可以给我所需要的...Use a
pack_padded_sequence
这是递归神经网络一直面临的问题,因此出现了
pack_padded_sequence
功能,但在这里并不完全适用。
浏览 3
提问于2019-10-13
得票数 2
2
回答
如何在PyTorch中正确地实现批量输入的LSTM网络?
利用pad_packed_sequence恢复由
pack_padded_sequence
提供的神经网络层的输出,得到T x B x N张量outputs,其中T是最大时间步长,B是批处理,N是隐藏大小。
浏览 5
提问于2017-09-24
得票数 18
点击加载更多
相关
资讯
教你几招搞定 LSTMS 的独门绝技
Pytorch0.3.0公布 实现多方面提速 加对ONNX支持
PyTorch 中使用深度学习的自动图像捕获
教你用PyTorch实现“看图说话”
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券