腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(482)
视频
沙龙
2
回答
如
何用
numpy
编写
骰子
损失
反向
传播
、
、
、
、
我正试着自己写一个
骰子
损失
函数。这是我写的前传。但是我不知道如何计算支撑力。我试着写一些,但它不起作用。或者
骰子
损失
根本不需要支撑?
浏览 35
提问于2019-06-03
得票数 1
1
回答
千层面/ theano的自定义
损失
函数
、
、
、
我试图创建一个定制的
损失
功能,用于千层面。我想使用我用
numpy
编写
的Sorensen-
骰子
系数,并使用这样的方法进行评估:它正在做:我现在正试图在西亚诺实现这一点是否可以将其用作
浏览 2
提问于2016-05-18
得票数 0
回答已采纳
1
回答
Keras是如何
反向
传播
自定义
损失
函数的?
、
我已经研究了大量的Keras自定义
损失
函数的例子。所有这些都可以概括为“写吧”。也就是说,需要
编写
函数获取参数(y_true,y_pred)。但是通常CNN需要
损失
函数的导数来进行
反向
传播
。例如,如果你在Caffe中实现自定义
损失
,你必须
编写
2个函数:你需要的
损失
本身,以及它对
反向
传播
的导数。但在Keras中,你似乎不需要第二个。这个魔法是如何工作的?
浏览 6
提问于2018-01-05
得票数 8
1
回答
TensorFlow自定义
损失
ValueError:没有为任何变量提供梯度:
、
我正在实现一个自定义
损失
函数,如下面的代码所示,用于简单的分类。ValueError:没有为任何变量提供渐变: import os import
numpy
matrixdef custom_loss(y_true, y_pred): y_pred = y_pred.
numpy
y_p
浏览 32
提问于2021-02-04
得票数 0
1
回答
反向
传播
角码
、
、
我在keras中搜索
反向
传播
代码,但找不到它。搜索了model.fit(),请帮助。谢谢
浏览 0
提问于2023-04-15
得票数 0
2
回答
反向
传播
如何与
反向
自动分化相同(或不相同)?
、
、
、
、
有这样的主张: 有人能解释一下,用外行人的话说吗?什么功能是被区分的?什么是“特例”?
浏览 4
提问于2014-05-06
得票数 14
回答已采纳
1
回答
CNN的复值输入
、
我已经运行了模型,但失败了,
损失
也没有减少。然后我发现,我的输入是复杂的,它们不能很好的训练。实际上,我认为激活函数,卷积和优化器,
反向
传播
,成本应该改变。我想知道如
何用
复杂的输入实现我的CNN。
浏览 0
提问于2018-10-13
得票数 1
回答已采纳
2
回答
在本例中执行
反向
传播
的位置
、
、
、
、
我有一个学习XOR的DNN示例(右击在新选项卡中打开):Grads = T.gradient(Loss,[W1,B1,W2,B2]);我猜想
反向
循环是在T.gradient,因为这些是与
损失
相关的梯度值,但我仍然不清楚。Question2.中是否存在
反向
传播
(
反向
循环)?如果有
反向
传播
,它在T.
浏览 4
提问于2019-09-28
得票数 0
回答已采纳
1
回答
如何:TensorFlow-忽略NA值的自定义
损失
概率(或以其他方式掩盖
损失
)
、
我的分布的大小(批量,时间步长,输出) (512,251天,1到8个时间序列) 示例中给出的传统
损失
函数是使用分布的对数概率。当我离开NAs时,它会像预期的那样产生NaN
损失
。 我已经试验了tf$的许多不同的排列,其中将
损失
替换为0,标签为0,等等。在每种情况下,模型都会停止训练,
损失
保持在某个常数附近。loss_nonan = tf$where( tf$math$is_finite(x) , loss, 0 ) return( ) } 我在这里使用R是偶然的,任
何用
浏览 24
提问于2020-10-23
得票数 0
回答已采纳
2
回答
零损耗会影响
反向
传播
更新吗?
、
、
、
假设我在做一个标准的DNN分类任务,我使用交叉熵
损失
。在损耗计算之后,我应用了一个掩码向量( 0,0,0,1,1,…将部分
损失
设定为零。 问题是Tensorflow将如何处理这个零
损失
?它会否涉及到
反向
传播
?
浏览 6
提问于2021-10-18
得票数 0
回答已采纳
1
回答
火炬重复
损失
和AUC-使用累积
损失
时
、
我使用PyTorch积累和添加
损失
,然后在最后实现
反向
传播
(loss.backward())。以下是发生在一批中的
损失
计算。loss.backward() loss_mean.append(loss.detach().cpu().
numpy
浏览 1
提问于2022-04-21
得票数 0
1
回答
如何使用不可微的
损失
函数?
、
、
import tensorflow as tfimport itertools sess.run(opt, feed_dict={input_bits: input_bit, code_out: code_preview})import tensorflow as tfimport
浏览 0
提问于2019-08-20
得票数 3
1
回答
重建和
反向
传播
有什么区别?
、
、
它们似乎在引用输入和第一个隐藏层之间的链接时使用重构,然后在引用到输出层的链接时使用
反向
传播
。 这些术语是互换使用的,还是不同的概念?
浏览 0
提问于2018-12-17
得票数 0
回答已采纳
1
回答
反向
传播
算法中权值的更新
、
、
我想我已经理解了
反向
传播
算法的每一步,但其中最重要的一步。重量是如何更新的?就像在本教程的结尾?
浏览 2
提问于2016-01-09
得票数 11
回答已采纳
1
回答
带最大池的卷积神经网络
、
、
、
、
下面是代码行,它确实意味着在前向
传播
期间进行池操作:skimage.measure.block_reduce(activation, block_size=(1, 1, 2, 2), func=np.mean) # delta is a
numpy
array of 3D
浏览 0
提问于2016-06-28
得票数 8
回答已采纳
1
回答
在
损失
函数中点缀张量时不存在的喷焰梯度
、
、
、
、
为了这个MWE的目的,我尝试用一个多项的自定义
损失
函数来拟合线性回归。然而,当我尝试在我的
损失
函数中加权不同的术语时,我遇到了奇怪的行为,方法是将一个权重向量与我的
损失
相加。仅仅对
损失
进行求和就像预期的那样;然而,当点缀权重和
损失
时,
反向
传播
就会被破坏,
损失
函数也不会减少。import torch.nn as nn import
num
浏览 0
提问于2019-07-01
得票数 0
回答已采纳
1
回答
在Tensorflow中实现自定义
损失
函数时,Got错误输入张量必须至少为2D:[] [Op:BiasAddGrad]
、
、
、
在我的项目中,我必须定制
损失
函数,这是匈牙利
损失
函数。tf.float32) final_cost.append(cost) 它工作得很好,并返回以下结果 <tf.Tensor: shape=(), dtype=float32,
numpy
predicted values
浏览 0
提问于2021-10-01
得票数 1
2
回答
keras对
损失
函数应用阈值
、
、
、
如果我没有弄错,在进行
反向
传播
时,神经网络会用原始值检查预测值并计算误差,并根据误差为神经元设置新的权重。是否也有任何方法来设定这个训练的门槛?
浏览 1
提问于2019-08-23
得票数 0
回答已采纳
1
回答
Tensorflow中RNN的截断回传(BPTT)
、
、
# ...
numpy
_state = initial_state.eval() total_loss += current_loss这些行实现截断
反向
传播
(BPTT)部分,但我不确定上面的代码部分本质上是必需的。Tensorflow (我使用的是1.3)是否自
浏览 3
提问于2017-10-08
得票数 2
回答已采纳
1
回答
两层网络上的
反向
传播
、
但我很难理解如何对
反向
传播
进行建模。我的意思是,我可以
编写
模块化的向前和向后传递,但让我困扰的是,如果我有下面的模型: 让我们假设这里的
损失
函数是softmax
损失
函数。在我的模块化softmax_loss()函数中,我正在计算关于分数的
损失
和梯度(dSoft = dL/dY)。
浏览 8
提问于2018-08-17
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
吴恩达Deeplearning.ai课程笔记302页大公开!
302页吴恩达Deeplearning.ai课程笔记,详记基础知识与作业代码
课后作业(二):如何用一个只有一层隐藏层的神经网络分类Planar data
通过梯度检验帮助实现反向传播
从零开始,搭建一个自己的神经网络
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券