腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(39)
视频
沙龙
1
回答
"input“是用作参数名(在PyTorch中)时会导致错误的关键字吗?
、
所以我有一行代码:但如果我去掉“输入”,它就会神奇地自我修复: packed_embeddings =
pack_padded_sequence
浏览 22
提问于2018-07-26
得票数 7
回答已采纳
2
回答
RNN是如何处理填充序列的?
在pytorch中,我们可以给出一个填充序列作为RNN的输入。从中,RNN的输入可以如下所示。 packed = torch.nn.utils.rnn.pack_padded_sequence(embedded, input_lengths)outputs, output_lengths = torch.nn.utils.rnn.pad_packed_sequence(outp
浏览 0
提问于2017-07-06
得票数 14
回答已采纳
2
回答
为什么我们要在PyTorch中“打包”序列呢?
、
、
、
、
我明白为什么我们“垫”他们,但为什么“包装”(通过
pack_padded_sequence
)是必要的?
浏览 1
提问于2018-06-25
得票数 159
回答已采纳
1
回答
如何在PyTorch中建立具有自定义隐藏层的神经网络模型(S)并与PackedSequence兼容
、
、
我想做一个RNN,例如,有更多的隐藏层或层规范化。我认为解决方案可能是子类nn.RNN,但我不知道如何做到这一点。
浏览 0
提问于2023-05-15
得票数 0
回答已采纳
1
回答
使用多个GPU运行LSTM将获得“输入和隐藏的张量不在同一设备上”。
、
、
、
我正在努力训练一个LSTM层在火把。我正在使用4个GPU。初始化时,我添加了.cuda()函数,将隐藏层移动到GPU。但是,当我使用多个GPU运行代码时,我得到的是运行时错误:我试图在前向函数中使用.cuda()函数来解决这个问题,如下所示:这
浏览 3
提问于2019-02-04
得票数 17
2
回答
如何在不按长度在PyTorch中重新排序的情况下,将批处理输入LSTM?
我是新来的,我遇到了一些麻烦。我想建立一个等级模型来判断问题和答案的相似性(包括正确的答案和错误的答案)。我用LSTM做编码器。
浏览 5
提问于2017-11-22
得票数 0
回答已采纳
1
回答
不一致(重复)填充的RNN (使用Py手电的
Pack_padded_sequence
)
、
、
、
、
packed =
pack_padded_sequence
(seq, lens, batch_first=True, enforce_sorted=False) 当使用(最好) PyTorch功能通过LSTM
浏览 7
提问于2022-01-21
得票数 0
1
回答
当我们有
pack_padded_sequence
()时,为什么需要pack_sequence()?
、
为什么同时存在
pack_padded_sequence
()和pack_sequence()方法?
浏览 0
提问于2020-01-27
得票数 4
回答已采纳
2
回答
在pytorch中,向前传递和推理有什么不同?
、
、
、
、
看看Tacotron2模型的编码器部分: def forward(self, x, input_lengths): x = x.transpose(1, 2) x = nn.utils.rnn.pack_padded_sequence( self.lstm.flatten_parameters
浏览 13
提问于2019-08-05
得票数 0
2
回答
如何使用具有相同标签的多个可变长度输入的
pack_padded_sequence
、
、
有什么办法可以用
pack_padded_sequence
吗?如果是这样,我应该如何排序我的序列?
浏览 1
提问于2018-03-09
得票数 5
回答已采纳
1
回答
Pytorch: TypeError“torch.LongTensor”对象是不可逆的
我正在尝试用pytorch完成一个NLP任务,我使用了以下代码来打包我的一批句子。 # batch size * max length Variable target_batch = target_data[iter:iter + batch_size] input_batch_length = input_leng
浏览 8
提问于2018-02-26
得票数 1
1
回答
将PackSequence参数传递给LSTM
、
根据我的理解,pack_sequence和
pack_padded_sequence
返回一个PackedSequence,它的data属性应该始终是一维的。
浏览 0
提问于2018-11-07
得票数 1
回答已采纳
1
回答
RNN中填充和掩蔽序列的实现
、
、
我读过像pad_sequence(),pack_sequence(),
pack_padded_sequence
()等函数,但是我已经和所有这些函数混淆了。或者还有其他我不知道的“秘密”方式?
浏览 0
提问于2023-05-30
得票数 0
1
回答
通过预先训练好的单词嵌入(如GloVe ),使用LSTM创建问题表示
、
、
、
、
as nnfrom torch import optim embeds = self.word_embeddings(sentence) packed_output =
pack_padded_sequence
浏览 56
提问于2021-03-31
得票数 0
回答已采纳
2
回答
从打包的序列中获取每个序列的最后一项
、
、
、
、
我尝试了以下几种方法from torch.nn.utils.rnn import
pack_padded_sequence
, pad_packed_sequence p =
pack_padded_sequence
(input, lengths, batch_first=True) gru = torch.nn.GRU
浏览 20
提问于2019-03-28
得票数 1
回答已采纳
1
回答
使用cnn火把可变长度的文本
、
、
、
、
我是个生手,我想知道CNN中可变长度句子序列的最佳实践是什么。现在,我知道py手电筒有一个动态图,我想知道除了填充之外,还有什么方法可以做到这一点吗?
浏览 1
提问于2019-07-28
得票数 2
回答已采纳
1
回答
使用
pack_padded_sequence
- pad_packed_sequence时训练精度下降和损失增加
、
、
我试着用
pack_padded_sequence
和pad_packed_sequence来训练一个双向的lstm,但是随着损耗的增加,精度不断下降。# embedding out2 = self.embed(X[1].to(device)) out = self.linear(out) return iout,
浏览 6
提问于2021-03-24
得票数 1
回答已采纳
1
回答
RuntimeError:当`enforce_sorted`为True时,`lengths`数组必须按降序排序。- Pytorch
、
、
、
You can pass `enforce_sorted=False` to
pack_padded_sequence
and/or pack_sequence to sidestep this requirement
浏览 350
提问于2021-06-18
得票数 0
1
回答
PyTorch中的掩蔽与实例规范化
、
目前,np.nanvar....Permute和PyTorch缺乏与np.nanmean和np.nanmean相当的功能,也没有转换成可接受的数据安排;没有这样的方法可以给我所需要的...Use a
pack_padded_sequence
这是递归神经网络一直面临的问题,因此出现了
pack_padded_sequence
功能,但在这里并不完全适用。
浏览 3
提问于2019-10-13
得票数 2
2
回答
如何在PyTorch中正确地实现批量输入的LSTM网络?
利用pad_packed_sequence恢复由
pack_padded_sequence
提供的神经网络层的输出,得到T x B x N张量outputs,其中T是最大时间步长,B是批处理,N是隐藏大小。
浏览 5
提问于2017-09-24
得票数 18
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
教你几招搞定 LSTMS 的独门绝技
Pytorch0.3.0公布 实现多方面提速 加对ONNX支持
PyTorch 中使用深度学习的自动图像捕获
教你用PyTorch实现“看图说话”
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券