腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
比较
logits
和
标签
的
最好
方法
是什么
?
、
我正在将
logits
与循环中
的
标签
进行
比较
: for r in range(
logits
.shape[0]): if labels[r] == np.argmax(
logits
[r]):guessed += 1.0 其中labels是整数
标签
的
一维数组,
logits
是二维数组,第二维是
标签
的
概率。应该有一个常用
的
numpy或tensorflow快捷方式来做到这一点。你能
浏览 23
提问于2019-02-19
得票数 0
回答已采纳
1
回答
Tensorflow ValueError:只调用带有命名参数
的
`sparse_softmax_cross_entropy_with_
logits
`
、
、
、
、
调用以下
方法
时: for
logits
反对这一点:根据nn_ops.py
的
文档,我需要确保登录
和
标签
初始化为以下内容: def _ensur
浏览 4
提问于2017-12-20
得票数 1
回答已采纳
1
回答
Tensorflow加权与sigmoid交叉熵损失
、
、
、
我正在尝试使用TensorFlow实现多
标签
分类(即,每个输出模式可以有多个活动单元)。这个问题有不平衡
的
类(也就是说,
标签
分布中
的
零比零多得多,这使得
标签
模式非常稀疏)。解决这个问题
的
最好
方法
应该是使用tf.nn.weighted_cross_entropy_with_
logits
函数。作为对损失函数
的
输入,我传递
标签
张量、
logits
张量
和
正类权重,这是一个常
浏览 2
提问于2017-12-18
得票数 0
回答已采纳
1
回答
频带RNN
的
计算精度
、
、
所以我想知道如何计算BandRNN
的
精度。 BandRnn是一种diagonalRNN模型,每个神经元具有不同数量
的
连接。例如: ? 这里C是每个神经元
的
连接数。= model(batch_x) loss = model.loss(
logits
, batch_y, len_batch) loss_test = model.loss(
logits
, batch_y, l
浏览 12
提问于2021-02-05
得票数 0
1
回答
优化忽略某些
标签
值
的
损失函数
、
、
、
我正在为稀疏输入数据编写一个二进制分类器,我希望将输入0视为数据不存在
的
指示,而不是该值肯定为0
的
指示。我最初使用
的
是tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_
logits
(...)),但它对误报
的
惩罚太严厉了。我成功地编写了一个损失函数,如下所示,它提供了我想要
的
行为,但它慢了好几个数量级,我需要找到一种
方法
来窃取一些性能。def loss(labels,
logits
): labels
浏览 2
提问于2019-08-28
得票数 1
3
回答
sparse_softmax_cross_entropy_with_
logits
和
softmax_cross_entropy_with_
logits
有什么不同?
、
、
、
是使用sparse_softmax_cross_entropy_with_
logits
时训练向量y必须为
的
唯一区别 在阅读应用程序接口时,我找不到与softmax_cross_entropy_with_
logits
相比
的
任何其他区别。但是为什么我们需要额外
的
函数呢?如果softmax_cross_entropy_with_
logits
提供
的
是单一热编码
的
训练数据/向量,那么它不应该产生与sparse_softmax_cross_entropy
浏览 1
提问于2016-05-19
得票数 119
回答已采纳
3
回答
如何在TensorFlow中使用带有shape=(1,1)
标签
张量
的
tf.equal()?
、
、
到目前为止,它是有效
的
。我得到每个类别的单独概率
和
正确
的
标签
。但是当我尝试用tf.argmax(label, 1)获取类时,我总是得到类"0“。", shape=(1, 1), dtype=int32)#
logits
: Tensor("..我想继续使用tf.equal(),但
标签
的
argmax值不正确,当然这是不可能
的
。有什么想法吗?我将问题从:如何在具有T
浏览 2
提问于2018-01-16
得票数 0
回答已采纳
1
回答
如何在PyTorch中忽略损失
、
、
optimizer.zero_grad() loss = criterion(
logits
, labels) optimizer.step()这里
的
用例是语义分割,某种程度上。
标签
是一个粗图像,其中每个区域(对应于输入
浏览 1
提问于2020-07-09
得票数 4
1
回答
我可以使用真实概率分布作为tf.nn.softmax_cross_entropy_with_
logits
的
标签
吗?
、
、
在Tensorflow手册中,
标签
的
描述如下: [0.001, 0.2, 0.5, 0.007 ... ]而且,它比一个热编码
标签
更有效吗
浏览 0
提问于2018-06-27
得票数 0
回答已采纳
1
回答
TensorFlow模型获得损失0
、
、
weight([layer2_num,y_columns]),bias([y_columns])) (tf.nn.softmax_cross_entropy_with_
logits
(labels=y,
logits
=prediction)) print("Epoch:{0},Loss:{1}&quo
浏览 1
提问于2017-05-04
得票数 5
回答已采纳
1
回答
Tensorflow -使用tf.losses.hinge_loss导致形状不兼容
的
错误
、
、
(1024, 2) and (1024,) are incompatible with ops.name_scope(scope, "hinge_loss", (
logits
, labels)) as scope:loss_normal = ( .hinge_loss(lab
浏览 6
提问于2017-11-08
得票数 1
回答已采纳
1
回答
在一个单热点
标签
的
两类问题中,为什么tf.losses.softmax_cross_entropy输出
的
成本很高?
、
我选择softmax交叉熵作为损失,使用python代码如下:目标
和
日志
的
大小为[batch_size然而,损失在100批之后变得很大,曲线是这样
的
:从tf
的
api docus中,我知道tf.losses.softmax_cross_entropy有batch_size,num_classes目标一个热编码
标签
,这与我
的
标签
大小为[
浏览 0
提问于2018-01-18
得票数 1
回答已采纳
1
回答
在GPU上运行BERT小队模型
、
、
、
、
我正在使用BERT Squad模型对一组文档(>20,000)提出相同
的
问题。该模型目前在我
的
CPU上运行,处理一个文档大约需要一分钟-这意味着我需要几天
的
时间来完成程序。然而,我是GPU
的
新手,我不知道如何将这些输入
和
模型发送到设备(Titan xp)。我知道我可以使用model
浏览 5
提问于2021-05-25
得票数 2
1
回答
tensorflow卷积教程,logit规模
、
因此,我直接将"local4“
的
输出输入到tf.nn.softmax()。这给了我缩放
的
逻辑,这意味着所有逻辑
的
和
是1。但是在丢失函数中,cifar10.py代码使用:对这个函数
的
描述是 警告:此op期望不缩放
的
日志,因为它对
logits
内部执行一个softmax以提高效率。不要用softmax
的
输出调用这个op,因为它会产
浏览 3
提问于2016-06-10
得票数 0
回答已采纳
3
回答
我应该使用softmax或tf.nn.sigmoid_cross_entropy_with_
logits
生成一个多类分类,并且每个类
的
概率都是这样吗?
、
、
、
我
的
问题是:对于一组看不见
的
序列,我希望
标签
的
输出集是‘found_1’,'found_in_2','found_in_3‘
的
多类概率。也就是说,如果上面的示例是来自我
的
测试集
的
输出,我
的
输出
最好
如下所示: DNA_seq Sample1Name Sample1Name ConcOfDNAInSample DNASeqFoundInProcessCat我想找出
的
是算法,特别是一个
浏览 5
提问于2020-04-26
得票数 0
1
回答
Tensorflow,tf.nn.sparse_softmax_cross_entropy_with_
logits
与tf.nn.softmax_cross_entropy_with_
logits
的
区别
我读过,但据我所知,对于函数tf.nn.softmax_cross_entropy_with_
logits
(
logits
, labels, dim=-1, name=None),结果是交叉熵损失,其中
logits
和
labels
的
维数是相同
的
。但是,对于函数tf.nn.sparse_softmax_cross_entropy_with_
logits
,
logits
和
labels
的
维度并不相同?你能给出一个更详细
的
浏览 8
提问于2016-12-22
得票数 4
回答已采纳
1
回答
如何将神经网络输出层使用
的
激活函数从softmax更改为sigmoid?
、
、
、
在执行图像分类任务时,我希望将神经网络输出层中使用
的
激活函数从softmax更改为sigmoid,但在使用此
方法
后,我得到了一个错误(错误信息如下。使用softmax功能时不会报告错误)。更改前
的
Softmax代码: # with tf.device('/cpu:0'): accuracy
浏览 14
提问于2020-06-19
得票数 0
1
回答
缺少
标签
的
深度多任务学习
、
、
、
我有一个深度
的
多任务网络,旨在处理三个独立
的
分类任务。虽然每个训练示例都有两个分类任务
的
标签
,但只有大约10%到15%
的
训练示例有第三个任务
的
标签
。该网络具有多个共享层,每个任务都有一个单独
的
头部,该头部由一个或多个完全连接层
和
softmax/ sigmoid输出层组成。为了处理第三个任务中缺少
的
标签
,我使用tf.boolean_mask来屏蔽每个批次中没有
标签
的
浏览 0
提问于2018-03-11
得票数 6
1
回答
Tensorflow:使用张量中
的
值作为参数
我想根据
标签
的
值以不同
的
方式计算DNN中
的
损失函数。从概念上讲,它是这样
的
: return loss_function_1(
logits
,labels) return loss_function_2(
logits
, labels) 显然,这是行不通
的
,因为我不能对张量对象进行这种<em
浏览 1
提问于2017-01-26
得票数 1
2
回答
Tensorflow,共享变量定义
的
放置
、
我对TensorFlow模型
的
定义有疑问。我正在实现一个相当特殊
的
神经网络模型,在这个模型中,我需要访问不同输入
的
输出水平
的
值来计算损失函数。(
logits
=g(input1), labels=labels1) \
浏览 0
提问于2017-06-02
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
大润发购物卡变现最好的方法是什么
【运输包装】电子标签-射频技术和条码的综合比较和讨论
华润万家购物卡最好的变现方法是什么?
传统CV和深度学习方法的比较
如果常州和苏州拆分无锡,最好的方案是什么
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券