腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(50)
视频
沙龙
1
回答
为什么PyTorch推断即使在设置`model.eval()时也是不确定的
、
、
、
我已经使用PyTorch对一个HuggingFace转换器模型进行了微调,并试图在GPU上进行推断。但是,即使在设置model.eval()之后,如果对同一数据多次运行推断,仍然会得到稍微不同的输出。torch.cuda.manual_seed_all(42)为什么是这种情况?这正常吗?模型的权重是固定的,并且没有未定义的或随机初始化的权重(当我加载经过训练的模型时,我得到了All keys matched successfully消息),那么如果我不手动设置cuda种子,那么随机性从哪
浏览 22
提问于2022-07-14
得票数 1
回答已采纳
1
回答
Python inspect.getmembers不返回所有成员吗?
、
torch.bmm
in inspect.getmembers(torch) False
浏览 2
提问于2018-08-13
得票数 0
回答已采纳
2
回答
在PyTorch中计算等大小方阵行点积的一种有效方法
假设我有两个大小相同的方阵A,B A = torch.tensor([[1, 2], [3, 4]]) B = torch.tensor([[1, 1], [1, 1]]) 我想要一个由行式点积组成的张量,比如 tensor([3, 7]) # i.e. (1*1 + 2*1, 3*1 + 4*1) 在PyTorch中实现这一目标的有效方法是什么?
浏览 13
提问于2021-10-25
得票数 1
回答已采纳
1
回答
Pytorch:沿通道共享权重的内存有效加权和
、
、
、
投入:2) W= dim (N,X,Y) (重量)的张量1) O= dim (N,C,Y) (输出)张量I = I.view(N, C, X, 1)PROD = I*Wreturn O基本上,我想要计算一个特征图的加权和,其中权重沿通道维数是相同的,而不引起每个通道的内存开销。 from itertools import product O = torch.zeros(N,
浏览 4
提问于2020-05-03
得票数 0
3
回答
为什么我们要做批量矩阵积?
、
、
我遵循,它使用
torch.bmm
方法,如下所示:batch1和batch2必须是三维张量,每个张量都包含相同数目的矩阵.
浏览 2
提问于2018-06-12
得票数 11
回答已采纳
2
回答
维度超出范围(应在[-2,1]的范围内,但得到2)
RuntimeError: dimension out of range (expected to be in range of [-2, 1], but got 2)import torch
torch.bmm
浏览 68
提问于2018-06-10
得票数 3
1
回答
火炬或Numpy批量矩阵运算
、
、
我试图让
torch.bmm
做下面的矩阵运算,这里有两个问题,批处理大小需要是第一个维度,而我的批次大小在结尾 我想对于Numpy用户来说也是同样的问题
浏览 0
提问于2020-02-09
得票数 0
回答已采纳
1
回答
割炬中二维矩阵到矢量的线性投影
我的问题是,我想要应用一个线性投影,然后是批处理规范化和ReLU,但我不知道如何应用它。
浏览 4
提问于2022-05-04
得票数 0
1
回答
元向矩阵向量乘法
、
我有一个张量m,它存储了n个3 x 3矩阵,其中含有dim n x 3 x 3,有一个张量v,有n个3x1向量和dim n x 3。如何应用元向矩阵向量乘法,即第i-矩阵与第1-向量相乘,得到具有dim n x 3的输出张量。
浏览 9
提问于2022-01-23
得票数 0
回答已采纳
2
回答
火炬中的三维张量*二维张量点
torch.dot似乎不这样做,x * y和torch.mm抱怨说,他们想要两个参数的2D张量,而
torch.bmm
则需要两个参数的3D张量。
浏览 8
提问于2016-03-16
得票数 1
回答已采纳
1
回答
如何在PyTorch中对数据进行批处理?
(10, 2*3, hid_dim)result =
torch.bmm
) # assume trainable parameters via nn.Parameterresult =
torch.bmm
浏览 3
提问于2017-11-13
得票数 1
回答已采纳
1
回答
在基于注意力的seq_len中消除BiLSTM
、
、
、
、
shape = (1, batch_size, n_hidden) attn_weights =
torch.bmm
torch.tanh(H) # Non-linear transformation size:(batch_size, hidden_dim, seq_len) a = torch.transpose(a,1,2) #
浏览 4
提问于2021-02-16
得票数 0
1
回答
如何在PYTORCH中实现2层嵌套FOR循环?
、
、
、
、
我正在学习如何在火炬中实现分解机。应该有一些特征交叉操作。例如,我有三个特性A,B,C,嵌入后,它们是vA,vB,vC,所以特征交叉是"vA·vB,vA·vC,vB·vc“。它可以通过矩阵操作来实现。但这只能给出一个最终的结果,比如说,一个单一的值。 g_feature = 0 for i in range(self.featurn_
浏览 2
提问于2019-03-07
得票数 1
回答已采纳
1
回答
多矩阵乘法丢失权重更新
、
在forward方法中,我只做了一组torch.add(
torch.bmm
(x, exp_w), self.b),然后我的模型就可以正确反向传播了。当我添加另一个层- torch.add(
torch.bmm
(out, exp_w2), self.b2) -时,梯度不会更新,模型也不会学习。exp_w = self.w.expand(x.shape[0], self.w.size(0), self.w.size(1)) out = torch.add(
torch.bmm
exp_w2 = self.w2.expand(out.s
浏览 4
提问于2018-08-20
得票数 0
回答已采纳
1
回答
执行批处理矩阵-多权矩阵乘法在pytorch
、
从文档中,
torch.bmm
要求A和B必须具有相同的批处理大小,因此我尝试了以下方法:B.size()# torch.Size([batch_size, 3, 5, 6]) 那么
浏览 0
提问于2018-09-17
得票数 0
回答已采纳
1
回答
如何在pytorch中避免这种for循环?有没有一个能有效计算的函数?
、
我的Pytorch神经网络中有以下代码: for j in range(n):q和k的大小都是(batch_sz, n, m)。这段代码显然减慢了我的程序,我想知道Pytorch是否提供了任何函数来提高效率。
浏览 1
提问于2021-04-20
得票数 2
1
回答
如何忽略特定列来计算softmax关注?
、
、
、
、
torch.bmm
(contex, q) 77.6376 199.1673 0.0000 0.0000F.softmax(
torch.bmm
(contex, q) )[torch.cuda.FloatTensor of size 15 (
浏览 2
提问于2018-01-21
得票数 1
1
回答
二维张量之间张拉点的尺寸
、
、
、
、
我有一个关于张力点操作的快速问题。我试图找出在两个张量之间执行张量乘积的方法,以得到我想要的形状的正确输出。其中一个张量是B,L,X,D维数,另一个是B,X,1,D维数,我试着找出是否有可能在最后得到B,X,D矩阵。任何见解或方向都将不胜感激。
浏览 8
提问于2021-11-05
得票数 0
回答已采纳
1
回答
Pytorch中的批处理矩阵乘法-与输出维度的处理混淆
、
、
、
、
我想要的输出应该保持形状: [batch, Width, Height, 3] 我尝试使用
torch.bmm
,但失败了。这是不是有可能呢?
浏览 18
提问于2019-06-11
得票数 7
回答已采纳
1
回答
定义自定义变量pytorch张量
我有一个和这个类似的问题: 有一个(n1, n2)形式的输入向量,我想要一个f(n1, n2) = f(n2, n1)的模型。我希望这个模型是线性的。例如,我想学习的2x2矩阵。2x2矩阵有4个权重,训练将尝试学习这些权重。但是,这种限制可以巧妙地减少问题。作为nvec=(n1, n2),f(nvec) = W*nvec。因此,假设X = [[0, 1],[1, 0]]是一个反转向量的2x2矩阵,然后是f(n2,n1) = W*X*(n1, n2) = f(n1, n2) = W (n1, n2)。 基本上,等式意味着W*X = W,或者如果是W = [[w1, w2], [w3, w4]]
浏览 16
提问于2020-01-29
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券