腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(697)
视频
沙龙
1
回答
Pytorch
CrossEntropyLoss
张量
流
等效
项
、
、
、
我目前正在将
pytorch
代码转换为tensorflow。自定义循环中聚合了3个损失,我得到一个错误,我正在将一个二维数组与一个1维数组传递到tensorflow的CategoricalCrossEntropy中,这是非常合法的,我理解为什么会发生这种情况……但在
pytorch
代码中,我传递了相同的形状,它与
CrossEntropyLoss
完美地工作在一起。
浏览 14
提问于2020-12-04
得票数 0
1
回答
PyTorch
CrossEntropyLoss
和Log_SoftMAx + NLLLoss给出了不同的结果
、
、
、
根据
PyTorch
文档,
CrossEntropyLoss
()是LogSoftMax()和NLLLoss()函数的组合。但是,调用
CrossEntropyLoss
()提供了与调用LogSoftMax()和NLLLoss()不同的结果,这从给定代码的输出中可以看出。def CrossEntropyPyTorch(values
浏览 0
提问于2023-04-27
得票数 0
回答已采纳
1
回答
仅CPU
pytorch
正在崩溃,并出现错误AssertionError: Torch未在启用CUDA的情况下进行编译
、
、
、
、
我正在尝试从this repository运行代码,并且我需要使用
Pytorch
1.4.0。我已经在pip install torch==1.4.0+cpu torchvision==0.5.0+cpu -f https://download.
pytorch
.org/whl/torch_stable.html上安装了
pytorch
的CPU版。File "C:\Users\username\OneDrive\Desktop\emadeldeen\AttnSleep\model\loss.py&
浏览 126
提问于2021-07-22
得票数 1
回答已采纳
1
回答
Pytorch
LSTM与交叉熵
、
、
、
、
对于loss,我使用的是我的批次大小为12,序列大小为32。
浏览 2
提问于2021-05-14
得票数 1
2
回答
Pytorch
相当于Numpy的logical_and和kin?
、
、
Pytorch
是否有与Numpy的元素级 (logical_and、logical_or、logical_not和logical_xor)
等效
的and?在使用CPU时,对
Pytorch
张量
调用Numpy函数似乎工作得足够好,甚至可以生成
Pytorch
张量
作为输出。我问主要是因为我假设如果
pytorch
计算在GPU中运行,这将不会很好地工作。
浏览 1
提问于2019-02-08
得票数 5
回答已采纳
2
回答
PyTorch
中的运行损失是什么?是如何计算的
、
、
、
、
我看了一下文档中的
PyTorch
教程,以了解传输学习。有一句话我听不懂。
浏览 1
提问于2020-04-08
得票数 17
回答已采纳
2
回答
一维
张量
的
Pytorch
CrossEntropyLoss
、
我在这里遗漏了一些东西:为什么
CrossEntropyLoss
不能处理一维
张量
?loss = nn.
CrossEntropyLoss
浏览 38
提问于2020-10-22
得票数 0
回答已采纳
2
回答
pytorch
的交叉损失与keras的"categorical_crossentropy“有区别吗?
、
、
、
我正在尝试在keras中模仿
pytorch
神经网络。我确信我的keras版本的神经网络与
pytorch
中的非常接近,但在训练过程中,我看到
pytorch
网络的损失值比keras网络的损失值要低得多。我想知道这是不是因为我没有正确复制keras中的
pytorch
网络,或者两个框架中的损失计算是不同的。
Pytorch
损失定义: loss_function = nn.
CrossEntropyLoss
() optimizer = optim.SGD(net.parameters(), lr=ar
浏览 555
提问于2020-04-26
得票数 3
回答已采纳
1
回答
像在Keras中一样,得到了火炬中的交叉熵损失
、
、
、
0.11]]) print("
PyTorch
", nn.
CrossEntropyLoss
()(t.tensor(y_pred).argsort(dim=-1).float(), t.tensor(y_true).argmax(dim=-1)))``` Keras tf.Tensor(2.3369865,shape=(1,),dtype=floa
浏览 8
提问于2020-06-05
得票数 2
回答已采纳
2
回答
关于torch.nn.
CrossEntropyLoss
参数形状
、
我正在学习
pytorch
,并将基于tensorflow (,)的anpr项目作为练习,将其移植到
pytorch
平台。有一个问题,我使用nn.
CrossEntropyLoss
()作为损失函数:模型的output.data为:RuntimeError: multi-target not supported at /data/users/soumith/minic
浏览 3
提问于2017-04-14
得票数 2
1
回答
PyTorch
教程中的交叉熵计算
、
、
、
我正在阅读关于多类分类问题的
Pytorch
教程。而我发现,在毕道尔的损失计算行为让我很困惑。你能帮我做这个吗?在每次迭代期间,nn.
CrossEntropyLoss
()的输入有两个部分:目标为0,0,0,1,其中1是右类输出
张量
为0.1,0.2,0.3,0.4,其中和为1.因此,基于这个假设,这里的nn.
Cross
浏览 3
提问于2020-06-02
得票数 2
回答已采纳
2
回答
如何改变
张量
的形状?
、
、
因此,它一直在说关于
张量
形状的错误信息。Reduction.get_enum(还原))> RuntimeError:
张量
a (10)的大小必须与非单例维的
张量
b (32)的大小相匹
浏览 5
提问于2020-06-15
得票数 1
1
回答
Pytorch
分类交叉熵损失函数行为
我对
Pytorch
的分类交叉熵损失的计算有疑问。我制作了这个简单的代码片段,因为我使用输出
张量
的argmax作为目标,所以我不能理解为什么损失仍然很高。import torchce_loss = nn.
CrossEntropyLoss
() output = torch.randn(3, 5, requires_grad
浏览 26
提问于2019-11-19
得票数 1
回答已采纳
1
回答
Tensorflow损失函数的
PyTorch
等价
、
我试图使用TensorFlow框架重新实现一个
PyTorch
代码。labels=target, logits=output)
PyTorch
requires_grad=True).view(-1, 4) loss = torch.nn.
CrossEntropyLoss
(reduction=&
浏览 5
提问于2019-12-05
得票数 1
回答已采纳
2
回答
基于
PyTorch
的神经网络回归
、
、
、
我正在尝试实现一个神经网络来预测h1_hemoglobin在
PyTorch
中。在创建模型之后,我将1保留在输出层中,因为这是回归。但我得到的错误如下。我无法理解这个错误。) x=self.out(x) loss_function = nn.
CrossEntropyLoss
浏览 17
提问于2022-07-05
得票数 0
1
回答
使用可训练的权重组合相同维度的两个
张量
,以获得最终的输出
张量
、
、
、
、
在处理与问答(MRC)相关的问题时,我实现了两种不同的架构,它们独立地给出了两个
张量
(令牌上的概率分布)。这两个
张量
都是维度(batch_size,512)。然后,这些被传递到线性层nn.Linear(768,1)以输出形状
张量
(batch_size,512,1)。除此之外,我还有另一个建立在BERT编码之上的模型,它也产生了形状的
张量
(batch_size,512,1)。我希望将这两个
张量
结合起来,最终得到一个形状
张量
(batch_size,512,1),可以使用
CrossEn
浏览 5
提问于2020-06-21
得票数 0
2
回答
多标号时间序列的
CrossEntropyLoss
、
、
、
我很困惑如何将交叉熵损失应用于我的时间序列模型,其中输出是[batch_size, classes, time_steps]形状的,目标是[batch_size, time_steps, classes]形状的。我试图让模型在每个时间步骤中确定16个类的可信度。通过使用以下方法,我损失很大,而且模型似乎没有学习:time_steps = 224y_true = torch.randn((batch_size, time_
浏览 4
提问于2022-07-07
得票数 0
1
回答
多批torch.nn.
CrossEntropyLoss
、
、
、
我目前正在使用torch.nn.
CrossEntropyLoss
。据我所知,按批量计算损失是很常见的.但是,是否有可能计算多个批次的损失?targets = torch.randint(low=0, high=10, size=(no_of_batches, batch_size)) loss_function = torch.nn.
CrossEntropyLoss
浏览 12
提问于2021-12-25
得票数 2
1
回答
为
PyTorch
的交叉熵损失添加权重参数会导致数据类型RuntimeError
我目前正在使用
PyTorch
来训练神经网络。我使用的数据集是一个具有大量0的二进制分类数据集。我决定尝试使用
PyTorch
的交叉熵损失的weight参数.通过sklearn.utils.class_weight.compute_class_weight计算权重,得到[0.58479532, 3.44827586当我将这个class_weights
张量
添加到损失的weight参数中时(即,criterion = nn.
CrossEntropyLoss
(weight=class_weights),我突然得到了一个
浏览 6
提问于2022-05-27
得票数 0
3
回答
当目标不是单热时,如何正确计算火炬中两个
张量
之间的交叉熵?
、
、
、
、
我对
Pytorch
中交叉熵的计算感到困惑。如果我想计算两个
张量
和目标
张量
之间的交叉熵不是一个热标签,我应该使用哪一个损失?计算两个概率分布之间的交叉熵,而不是预测结果和一个确定的单热标号是很常见的。基本损失函数
CrossEntropyLoss
强制目标作为索引整数,在这种情况下它是不合格的。BCELoss看起来很有效,但它带来了一个意想不到的结果。下面是一个使用BCELoss的例子,我们可以看到第二个
项
涉及到每个维度的结果。这使得结果与正确的结果不同。shape=(), dtype=float32) 0.9
浏览 11
提问于2021-08-01
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
从基础概念到实现,小白如何快速入门PyTorch
PyTorch入门到进阶,实战计算机视觉与自然语言处理
从头开始了解PyTorch的简单实现
一个简单而强大的深度学习库—PyTorch
手把手教 深度学习库PyTorch
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券