腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
最终
层
的
张量
输
出在
PyTorch
中
的
形状
错误
、
、
、
、
我正在构建一个序列到标签
的
分类器,其中输入数据是文本序列,输出标签是二进制
的
。该模型非常简单,只有GRU隐藏
层
和单词嵌入输入
层
。我
的
模型,只有最少
的
层
: def __init__(self, weights_matrix, hidden_size, num_layers):, 60, num_layers=3, batch_first=True) (out): Linear(in_features=60, ou
浏览 8
提问于2020-03-05
得票数 2
1
回答
通过线性
层
的
PyTorch
高维
张量
我在
PyTorch
中有一个大小
的
张量
(32,128,50)。这些是50个字嵌入,批处理大小为32.也就是说,我大小
中
的
三个索引对应于批数、最大序列长度(带有“pad”令牌)和每个嵌入
的
大小。现在,我想通过一个线性
层
来获得一个大小(32,128,1)
的
输出。也就是说,对于每一个嵌入在每个序列
中
的
单词,我想把它变成一维
的
。我试着在我
的
网络
中
添加一个线性
层</e
浏览 12
提问于2022-02-17
得票数 0
回答已采纳
1
回答
Pytorch
: Numpy数组
、
在使用
pytorch
时,我可以使用numpy数组吗? 我正在将一段代码从tensorflow转换为
pytorch
,代码在计算过程中使用numpy数组。在计算过程
中
,我可以将输入保持为numpy数组吗?还是必须将它们转换为torch
张量
?
浏览 0
提问于2021-07-13
得票数 0
1
回答
使用可训练
的
权重组合相同维度
的
两个
张量
,以获得
最终
的
输出
张量
、
、
、
、
我希望获得表单(batch_size,512)
的
最终
输出。如何使用可训练权重组合两个
张量
,然后根据
最终
预测训练模型?编辑(附加信息): 因此,在我
的
NN模型
的
前向函数
中
,我使用BERT模型对512个令牌进行编码。这些编码是768维
的
。然后,这些被传递到线性
层
nn.Linear(768,1)以输出
形状
张量
(batch_size,512,1)。除此之外,我还有另一个建立在BERT编码之上
的</e
浏览 5
提问于2020-06-21
得票数 0
1
回答
我想知道如何在
Pytorch
中
处理LSTM
、
在
Pytorch
中
,LSTM知道输入了3D数据。lstm_num:使用
的
LSTM数量(batch,dv_batch,dvector)在三维数据
中
。
浏览 3
提问于2020-05-25
得票数 0
1
回答
为什么在nn.Module
中
返回
pyTorch
强化学习示例
中
的
self.head(x.view(x.size(0),-1
、
、
我知道平衡极点
的
例子需要2个输出。以下是self.head
的
输出 x = Linear(in_features=512, out_features=2, bias=True) 当我运行
的
时候我从代码
中
的
注释中了解到它正在返回: Returns tensor([left0exp,right0exp...])。但是,如何将torch.Size(121,32,2,8)
的
x缩减为大小为2
的
张量<
浏览 0
提问于2020-06-28
得票数 0
2
回答
在火炬
中
嵌入三维数据
、
这是通常
的
单词嵌入。虽然我尝试过,但我不知道如何实现三维嵌入.你知道如何实现这样
的
数据吗?for chars in elm:上面的代码出现了一个
错误
,因为self.embedding
的
输出是Variable。你们知道更有效
的
方法吗?
浏览 5
提问于2017-11-09
得票数 8
回答已采纳
2
回答
纵火线性法
中
的
多维输入?
、
、
、
在构造一个简单
的
感知器神经网络时,我们通常将格式(batch_size,features)输入
的
2D矩阵传递给二维权矩阵,类似于
中
的
这种简单
的
神经网络。我总是假设神经网络
的
感知器/密集/线性
层
只接受2D格式
的
输入,并输出另一个2D输出。但最近,我遇到了这样一个模型:线性
层
接受三维输入
张量
,并输出另一个三维
张量
(o1 = self.a1(x))。loss = criterion(o
浏览 3
提问于2019-10-28
得票数 3
回答已采纳
1
回答
在
pytorch
中
屏蔽和计算通过具有线性输出
层
的
RNN发送
的
填充批次
的
损失
、
虽然这是一个典型
的
用例,但在通过RNN发送时,我找不到一个简单而明确
的
指南来说明在
pytorch
中计算填充小批量
的
损失
的
规范方法是什么。我认为一个规范
的
管道可能是: 1)
pytorch
RNN需要
形状
的
填充批量
张量
:(max_seq_len,batch_size,emb_size) 2)所以我们给出一个嵌入
层
,例如这个
张量
: tensor嵌入
层
将使其成为
浏览 18
提问于2019-12-12
得票数 2
回答已采纳
1
回答
PyTorch
-模型参数权重
的
意外
形状
、
、
、
我在
Pytorch
中
创建了一个完全连接
的
网络,其中包含一个输入
层
的
形状
(1,784)和第一个隐藏
层
的
shape (1,256)。给我torch.Size([128, 256]),而实际上,在大小为784
的
输入
层
和大小为256
的
隐藏
层
之间,我期待
的</
浏览 9
提问于2020-04-30
得票数 0
回答已采纳
1
回答
使用
PyTorch
数据加载器将三维和一维特征传递给神经网络
、
、
、
我有大小为2x8x8
的
例子作为
张量
,我正在使用
PyTorch
数据加载器。但现在我也想添加一个大小为1(单个数字)
的
1维
张量
作为输入。因此,我有两个神经网络
的
输入参数,一个是卷积
层
的
多维参数,另一个是稍后要连接
的
额外参数。 也许我可以使用两个数据加载器,对于每个
张量
形状
一个,但我不能洗牌。如何将单个
PyTorch
数据读取器用于这两个不同
的
输入
张量
?
浏览 34
提问于2020-10-29
得票数 0
回答已采纳
2
回答
PyTorch
CNN线性
层
在conv2d后
的
形状
、
、
我试着学习
PyTorch
,并遇到了一个教程,其中CNN
的
定义如下, def __init__(self): x = self.linear_layers(x)我明白cnn_layers是如何制造
的
。我不明白为什么线性特性
的
数量是4*7*7。我知道4是最后一个Conv2d
层
的
输出维。 7*7
浏览 1
提问于2021-01-31
得票数 1
回答已采纳
1
回答
Pytorch
乘法广播
、
我有两个
PyTorch
张量
A,
形状
30,11,32,64和B,
形状
30,11,89。我
的
目标是创建一个
形状
为30,11,89,32,64
的
张量
C,其中
张量
A应该扩展并在第三维复制,然后在适当
的
维度与
张量
B相乘。 如何在
PyTorch
中
实现这一点?
浏览 21
提问于2020-01-14
得票数 1
1
回答
分配torch.cuda.FloatTensor
、
、
我想知道如何做下面的代码,,但现在使用
pytorch
,其中dtype = torch.cuda.FloatTensor。这里有直接
的
python代码(使用numpy):import random as randpop = 30y = x**2best = x[indexmin] 这是我
的
尝试出现以下
浏览 2
提问于2017-11-13
得票数 1
回答已采纳
1
回答
PyTorch
中
两个
张量
的
所有可能
的
连接
假设我有两个
张量
S和T,定义如下:T = torch.ones((3,2,1))我想在批次之间连接所有可能
的
配对。批处理
的
单个串联会产生
形状
为(4, 1)
的
张量
。有一些
张量
组合,所以
最终
得到
的
张量
浏览 3
提问于2021-09-02
得票数 3
1
回答
如何将不同尺寸
的
两个
张量
连接起来
、
、
我有两个
张量
的
火把,这些
形状
: RuntimeError:
张量
必须具有相同
的
维数: got 2和3 我该怎么做才能解决这个问题?如何将二维
PyTorch
张量
转换为三维
张量
,或者如何在不丢失任何数据
的</e
浏览 5
提问于2021-12-07
得票数 0
回答已采纳
1
回答
迭代地将两个3D
Pytorch
张量
相乘
、
、
、
、
我有两个三维
Pytorch
张量
,一个维度(8,1,1024),另一个维度(8,59,77)。我想把这两个人相乘。 我知道它们不能在当前状态下相乘,所以我想迭代地将它们相乘,并附加到单个
张量
中
。当我们迭代第二维时,第二个
张量
可以表示为(8,59,1)。在这种状态下,将其与
形状
的
第一个
张量
(8,1,1024)相乘,得到
形状
(8,59,1024)
的
张量
,最后将所有这77个输出附加到一个
中
浏览 32
提问于2020-11-22
得票数 1
1
回答
CUDA
错误
:使用CUBLAS_STATUS_INVALID_VALUE训练BERT模型时
的
HuggingFace
错误
、
、
、
我用两个线性
层
对模型进行了精细
的
调整,代码如下所示。= self.relu(x) x = self.fc2(x)这是我
的
火车功能当我运行列车函数时,我得到了下面的
错误
,我尝试了32,256,512批大小。更新代码:-我尝试在CPU上运行代码,
错误
在矩阵
形状
不匹配。输入
形状
,在图像
中
打印self.bert后
的</em
浏览 22
提问于2021-07-14
得票数 2
回答已采纳
1
回答
Pytorch
整形以修改forward()
中
的
批处理大小
、
、
我有一个
形状
张量
,比如:[4,10],其中4是批量大小,10是我
的
输入样本缓冲区
的
长度。现在,我知道它实际上是[4,5+5],即输入样本缓冲区由两个长度为5
的
窗口组成,这两个窗口可以独立处理,最好是并行处理。我所做
的
是,在我
的
模型
的
forward()
中
,我首先将
张量
重塑为8,5,在其上运行我
的
层
,然后将其重塑回4,-1,然后返回。我希望
Pytorch
能够在每个窗口
浏览 1
提问于2020-10-15
得票数 0
1
回答
在Huggingface模型
中
,如何将
PyTorch
模型
层
的
张量
替换为另一
层
相同
形状
的
张量
?
、
、
、
0.0127, 0.0144, -0.0400],给定另一个
形状
相同
的
张量
,在这个例子
中
,为了说明,我创建了一个随机
张量
,但这可以是任何预先定义
的
张量
。import torch注:我不是试图用随机
张量
来替换一个
浏览 34
提问于2022-09-07
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Pytorch中张量的高级选择操作
深度学习中numpy矩阵和Pytorch张量中的点积dot
有了这个工具,不执行代码就可以找PyTorch模型错误
Pytorch 学习引发的思考
从头开始了解PyTorch的简单实现
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券