腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
最后
一个
暗点
上
填充
多个
火炬
张量
、
我有
多个
火炬
张量
,形状如下 x1 = torch.Size([1, 512, 177])x3 = torch.Size([1, 512,313]) 我如何在
最后
一个
维度上用0
填充
所有这些
张量
,以获得
一个
独特的形状,如(1,512,350)。ff = np.pad(f, [(0, self.max_len - f.shape[0]), ], mode='constant'
浏览 15
提问于2021-10-21
得票数 0
回答已采纳
1
回答
LuaJIT ffi光盘与
火炬
张量
的最佳转换
、
、
、
、
执行LuaJIT ffi cdata 1和
火炬
张量
2之间转换的最佳方法是什么。根据Mike
在
lua用户邮件列表3中的答复,如果我们真的想将cdata转换为lua平原表,我们必须做
一个
循环来将每个条目复制到
一个
新创建的条目中。实际
上
,
火炬
张量
提供了更好的LuaJIT ffi访问4的接口。所以,我目前的解决方案是先做
一个
循环,然后将cdata转换成lua平原表,然后调用
张量
构造函数,从表5创建
张量
。但实
浏览 6
提问于2016-05-22
得票数 1
回答已采纳
1
回答
将函数应用于三维数组的矢量化
、
、
、
我尝试将
一个
函数应用于3d
火炬
张量
,同时将该函数应用于2d
张量
,该
张量
通过3d
火炬
张量
的轴1读取。例如,我有
一个
形状为(51, 128, 20100) (名为autoencode_logprob的变量)的
火炬
张量
,函数(Rawid2sentence)
在
形状(51, 20100)的输入
上
运行。autoencode_logprobs是3d
张量
,我需要沿着它的第二个轴应
浏览 19
提问于2019-05-08
得票数 0
1
回答
二次分裂
火炬
张量
维数
、
如果我有
一个
2,12形状的
火炬
张量
,它能用这样的方式使3,2,4形状的
张量
沿着
最后
一个
维度被分割成块吗?视图函数不会更改数据的顺序,但这里我需要更改顺序,即新维度将是第
一个
维度,而第二个维度不会更改。[2, 12] ........torch.split函数
在
形状
上
完全满足我的需要,但它输出的不是
张量
,而是元组。
浏览 1
提问于2022-02-25
得票数 0
回答已采纳
1
回答
在
火炬
上
垫
一个
张量
、
、
、
、
我有
一个
100x100像素的图像在
火炬
张量
,我想实现
一个
“放大”转换。如何使用
火炬
工具箱(或其他)实现这一点?谢谢!
浏览 3
提问于2015-12-15
得票数 1
回答已采纳
1
回答
怎样才能用
火炬
使3,3形
张量
仅在
火炬
中形成3,1,3形
张量
?
、
、
如果有
一个
3×3的
火炬
张量
,我怎么能用
火炬
把它转换成3x1x3
张量
呢?tensor([[[1., 1., 1.]], torch.ones(3, 3)[:, None, :],但是我需要单独用
火炬
和
火炬
浏览 5
提问于2022-08-21
得票数 1
1
回答
通过线性层的PyTorch高维
张量
我
在
PyTorch中有
一个
大小的
张量
(32,128,50)。这些是50个字嵌入,批处理大小为32.也就是说,我大小中的三个索引对应于批数、最大序列长度(带有“pad”令牌)和每个嵌入的大小。现在,我想通过
一个
线性层来获得
一个
大小(32,128,1)的输出。也就是说,对于每
一个
嵌入
在
每个序列中的单词,我想把它变成一维的。我试着
在
我的网络中添加
一个
线性层,从50到1维,输出
张量
是所需的形状。我玩过这个发现: 如果我输
浏览 12
提问于2022-02-17
得票数 0
回答已采纳
1
回答
用掩模使大矩阵变小
、
、
我有
张量
A (Mask)和
张量
A的掩模(M )。例如,图1是我的
张量
A。我为蒙面查询密钥对画灰色。图1.
张量
A的示例
在
图1
张量
中,我希望使
张量
如图2所示。
在
图2中,灰色值只是虚拟值,对应值的索引是否是虚拟
浏览 12
提问于2022-08-02
得票数 1
2
回答
使用自定义py呼救数据集的高效小批处理循环编码模式
return item[0], item[1] return len(self.dataset) # predict and train dataset对象可能返回原始Python对象,比如数字或列表,就像我的示例实现中的那样,但是
在
最后
一个
代码片段的例如,
一个
选项是将所有内容都保存为dataset中的torch.FloatTensor,而在data_loader循环
浏览 1
提问于2018-01-24
得票数 0
1
回答
RuntimeError具有copy_()和copy_()--不受支持的操作:写到
张量
的
多个
元素引用单个内存位置
我正在将
一个
存储库从Py
火炬
Nightle1.0.0迁移到1.3.1。除去不必要的细节,它基本
上
是
在
执行以下操作顺序:bar = torch.eye(5, 5)bar.copy_(mu * bar)可以工作,而当我试图对结果进行foo.copy_()时,它会给出以下错误: RuntimeError:不支持的操作:写到
张量
的
多个
元素指的是单
浏览 3
提问于2020-01-25
得票数 0
回答已采纳
2
回答
从python 2到python 3的代码转换
、
我正在建立
一个
新的算法,它结合了python 3中的对象检测器(边界盒检测器)和python 2中的掩码生成器。这里的问题是,我有几个python 2文件是掩码生成算法所需要的。"RuntimeError: torch.FloatTensor类型的预期对象,但为参数#2‘权重’找到torch.cuda.FloatTensor类型 我
在
PyTorch论坛
上
搜索过,但没有一篇文章对我有用这是否意味着
在
加载权重和测试模型时,我应该使用python 2而不是python 3?如果有人能对此有所了解,那就太好了。
浏览 0
提问于2019-04-02
得票数 0
回答已采纳
1
回答
带喷炬的图形神经网络运行误差-几何
、
我正在尝试让
一个
图形神经网络代码
在
集群
上
运行(在这里,我使用的代码
在
半年前一直运行得很好)。我有以下版本:如果运行该代码,将得到以下错误: 追溯(最近一次调用):文件"GNN_20210503)第75行中,
在
from_data_list exclude_keys=exclude_keys中,<
浏览 4
提问于2022-02-10
得票数 0
2
回答
如何对巨蟒中的一批多边形进行栅格化
、
、
、
、
我有一批多边形,可以是NumPy数组,
火炬
张量
,或者其他形状的(230_000, 3, 2)数组。230_000是多边形的数目,3表示它是
一个
三角形,2是它的x和y坐标。我也有一批形状(230_000, 3, 3)的特征(
最后
是颜色),最好是
在
栅格化过程中对特征的颜色进行插值。最重要的是
填充
多边形
在
ndarray
上
的栅格化和快速。批次大小将是数十万个多边形。循环不会有帮助。
浏览 2
提问于2021-12-15
得票数 0
回答已采纳
1
回答
我是否可以
在
没有先创建输入前
张量
的情况下使用py呼机.backward函数?
、
、
、
我一直
在
尝试更好地理解RNN,并且正在使用numpy从头开始创建
一个
RNN。我
在
计算损失的时候,有人建议我不要用梯度下降和权重矩阵来更新自己,而是使用pytorch .backward函数。我开始阅读这里的一些文档和帖子,介绍它是如何工作的,似乎它将计算
火炬
张量
在
函数调用中包含requires_grad=True的梯度。 因此,除非创建
火炬
张量
,否则我无法使用.backward。当我试图
在
损失标量
上
这样做时,我会得到
浏览 9
提问于2022-07-20
得票数 0
1
回答
计算NLP问题中损失的稀疏交叉熵损失PyTorch
、
、
我的输入
张量
看起来是:// 8 -> batch size我的输出
张量
看起来如下
浏览 2
提问于2020-09-03
得票数 1
1
回答
如何批量设置
张量
指标值
、
我有
一个
批号N的
张量
。
在
第二
张量
指数中,我
在
每个
张量
中有N个元素的指数。i2 .... ]t0 = [[ set X at i0 ], [ set X at i1 ], [ set X at i2 ] .... ] 我怎么才能在
火炬
上
做到这一点
浏览 4
提问于2022-01-19
得票数 0
回答已采纳
1
回答
Torch -随机选择要切片的
张量
的维度
、
我有
一个
大小为(1 x n x n x n)的
火炬
张量
,我想随机选择
最后
3个维度中的
一个
,
在
s处随机切片,然后这样做。例如,它可以以相等的概率输出以下
张量
;(1 x n x s x n)我意识到我可以只做几个if else语句,但我很好奇是否有
一个
“更简洁
浏览 0
提问于2016-01-26
得票数 1
2
回答
如何在pytorch c++ api中给出模型的一批框架?
、
、
我已经编写了一段代码,
在
C++中使用pytorch C++前端api加载PyTorch模型。我想通过使用C++给module->forward(batch_frames)中的预训练模型提供一批帧。但是它可以通过
一个
输入转发。 如何向模型提供一批输入?
浏览 3
提问于2019-02-13
得票数 1
回答已采纳
1
回答
pad_packed_sequence是如何在放火枪中工作的?
、
、
、
火炬
中LSTM的输出: 给出了输入作为压缩序列(birectional ),然后根据加法,只对output进行压缩,h_n、c_n作为
张量
返回。
在
将pad_packed_sequence函数应用于output解压缩后,如何得到隐态作为
张量
?我
在
某个地方看到了这样的代码:pad_packed_sequence(output)[0],为什么我们必须在这里取0索引?另外,对于
最后
一个
隐藏状态和单元格状态,我使用h_n[0],h_n[1]和c_n[0],c_n[1]获得<em
浏览 3
提问于2021-06-23
得票数 0
回答已采纳
3
回答
我怎么才能用Numba来做
火炬
手呢?
、
、
但是我发现即使是
一个
非常简单的函数也不起作用:import numba def vec_add_odd_pos(a, b): res =
浏览 8
提问于2020-07-30
得票数 9
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
在电脑上怎样将多个音频合成一个?
科学家成功在一个量子芯片上同时操作多个自旋量子比特
Python深度学习之TensorFlow中的基本概念
Tensorflow基础知识-边、节点、其他概念
卷积神经网络的前向传播算法详解
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券