腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(4639)
视频
沙龙
0
回答
keras
(
或
任何
其他
ML
框架
)
如何
计算
lambda
函数
层
的
梯度
以
进行
反向
传播
?
、
Keras
允许添加
计算
用户定义
的
lambda
函数
的
层
。我不明白
的
是,
Keras
是
如何
知道为
反向
传播
计算
这个用户定义
函数
的
梯度
的
。
浏览 6
提问于2016-12-26
得票数 7
1
回答
使用自定义成本
函数
计算
输入
梯度
、
、
、
、
我有一个事先训练过
的
咖啡豆模型,没有损失
层
。我想做以下几个步骤: 执行
梯度
下降重复1和2,
以
优化输入。我不知道
如何
在预先训练
的
模型中添加一个损失
层
来完成这个任务。在
其他
浏览 2
提问于2016-04-18
得票数 1
2
回答
Relu激活和
反向
传播
、
、
我已经使用sigmoid激活
函数
实现了MLP
的
反向
传播
。 在前向阶段,我将每一
层
的
输出存储在内存中。在
计算
了输出误差和输出
梯度
向量后,我开始
反向
返回并
计算
每一
层
的
隐藏误差(使用当前
层
的
输出+
层
的
权重+1 +
层
的
输出误差+1)。然后我使用隐藏
的
误差和layer
浏览 35
提问于2021-03-24
得票数 1
1
回答
TensorFlow / PyTorch:外部测量
的
损耗
梯度
、
、
、
、
其思想是将神经网络训练为未知非线性
函数
F
的
逆F^(-1),这意味着损失L是在F
的
输出处
计算
的
,但是由于F
的
梯度
不知道,反
传播
不能直接用于
计算
梯度
和更新NN权值。在
计算
TensorFlow
或
PyTorch中
的
梯度
时,是否可以使用没有直接连接到神经网络
的
损失
函数
L?
或
承担
任何
<e
浏览 2
提问于2020-01-16
得票数 1
1
回答
在带有角/tf
的
CNN中获取
梯度
值
、
、
、
、
实际上,我有一个带有几个
层
的
角角CNN,我想评估一个输入,然后得到
反向
传播
算法
的
梯度
。建立并编译了该模型。但是我只希望第一次在一个输入/输出集上运行
反向
传播
,我不关心
其他
任何
事情。model.add(Dense(digits, activation='softmax')) model.compile(loss = <e
浏览 0
提问于2019-02-01
得票数 0
1
回答
chainer向后
函数
中
的
参数"grad_outputs“是什么?
3个问题: 假设我想实现自定义
函数
,但是我
的
输入和inputs1有不同
的
形状,为了使用微分链规则
进行
反向
<e
浏览 1
提问于2017-08-27
得票数 0
1
回答
如何
计算
损失
函数
?
、
、
、
、
我希望你做得好,我想问一个关于神经网络中损失
函数
的
问题。我知道,对训练集中
的
每个数据点
计算
损失
函数
,然后根据是否使用批处理
梯度
下降(在所有数据点通过后
进行
反向
传播
)、小批处理
梯度
下降(批处理后
进行
反向
传播
)
或
随机
梯度
下降(在每个数据点之后
进行
反向
传播
)
进行
<
浏览 0
提问于2022-05-25
得票数 1
回答已采纳
2
回答
带Dropout
层
的
Keras
小型批处理
梯度
下降
、
、
、
、
最初
的
文件说: 但是它是
如何
在
Keras</em
浏览 5
提问于2020-02-19
得票数 0
1
回答
Caffe:如果两
层
反向
支持
梯度
到相同
的
底部斑点,会发生什么?
、
、
、
、
我想知道,如果我有一个
层
生成一个底部斑点,并被两个后续
层
进一步消耗,这两个
层
都将在后向
传播
阶段生成一些
梯度
来填充bottom.diff。是否将两个
梯度
相加以形成最终
的
梯度
?在我
的
理解中,咖啡
层
需要在填充一些
计算
出
的
梯度
之前将bottom.diff设置为全零,对吗?memset会刷新另一
层
已经
计算
出
的
渐变吗?谢谢
浏览 0
提问于2017-06-07
得票数 2
1
回答
在
Keras
中
的
反向
传播
?
、
、
、
谁能告诉我在
Keras
中
反向
传播
是怎么做
的
?我读到在Torch中很简单,在Caffe中很复杂,但我找不到
任何
关于使用
Keras
做这件事
的
东西。我正在用
Keras
(一个非常初学者)实现我自己
的
层
,我想知道
如何
做
反向
传播
。 提前谢谢你
浏览 5
提问于2017-11-21
得票数 21
回答已采纳
2
回答
Keras
二进制分类. Sigmoid激活
函数
、
、
、
、
我用tensorflow在
Keras
中实现了一个基本
的
MLP,并试图解决一个二进制分类问题。对于二进制分类,sigmoid似乎是推荐
的
激活
函数
,我不太理解其中
的
原因,以及
Keras
如何
处理这个问题。在
Keras
中,我没有看到
任何
方法来指定这个阈值,所以我假设它是在后端隐式完成
的
?如果是这种情况,那么
Keras
如何
区分在二进制分类问题中使用sigmoid,还是在回归问题中使用?我所能
浏览 0
提问于2018-03-06
得票数 21
回答已采纳
2
回答
Keras
如何
在没有激活
的
层
上优化权重?
、
、
背景: 如果我没有弄错,在训练一个网络时,我们对每一
层
进行
前向执行sigmoid(和(W*x)),然后在
反向
传播
中
计算
误差和增量(变化),然后
计算
梯度
并更新权重。假设我们在其中一
层
没有激活,那么角粒
如何
计算
梯度
呢?它是否只需要sum(W*x)*next_layer_delta*weights
的
值来获得当前
层
的
增量,并使用它来
计算
浏览 0
提问于2018-07-31
得票数 1
回答已采纳
1
回答
PyTorch丢失()和
反向
传播
是否理解
lambda
层
?
、
、
、
我一直在使用这里提供
的
代码
的
resnet56模型:。我注意到这个实现与许多
其他
在线可用
的
ResNet示例不同,我想知道PyTorch使用损耗()
的
反向
传播
算法是否可以解释所提供
的
代码中
的
lambda
层
和快捷方式。如果是这样的话,是否有人能深入了解PyTorch
如何
能够为
反向
传播
解释
lambda
层
(例如,PyTo
浏览 4
提问于2020-01-19
得票数 1
回答已采纳
1
回答
是否有可能编写基于
Keras
中批处理中样本输出
的
差异
的
自定义丢失
函数
?
、
我试图在
Keras
中实现一个丢失
函数
,它可以执行以下操作:K.log(K.sigmoid(y1-+K.log(K.sigmoid(yn-yn-1)) 我在考虑使用
Lambda
层
首先将批处理outputy0,y1,.,yn转换为y1-y0,y2-y1,.,
浏览 2
提问于2019-05-12
得票数 0
1
回答
为什么
梯度
下降会更新0值
的
权重呢?
、
、
、
、
我当时正在读,讨论对我来说很有意义:当所有权重初始化为零时,
梯度
下降无法判断错误来自何处,因此无法更新这些权重。 sess.run(train_step, feed_dict={x: x_ex, y: y_ex})我看到
的
输出是0.00059909][[ 0.02472398][[ 0.02472398] [ 0.0241
浏览 5
提问于2016-12-02
得票数 1
1
回答
神经网络模型能用加权平均(和)平方误差作为损失
函数
吗?
、
、
我是这个研究领域
的
努比,这可能是一个非常愚蠢
的
问题。我想要建立一个正常
的
神经网络,但我不确定我是否可以使用加权均方误差作为损失
函数
。如果我们不平等对待每个样本,我
的
意思是我们对样本
的
某些类别的预测精度更关心,然后我们想要形成一个加权损失
函数
。假设我们有一个分类特性ci,i是示例
的
索引,为了简单起见,我们假设该特性采用二进制值(0
或
1 )。(ci + 1)(yi_hat - yi)^2 #and take the sum for al
浏览 1
提问于2017-12-21
得票数 3
回答已采纳
1
回答
如何
训练具有不同层次
的
神经网络
、
、
如果我们有MLP,那么我们可以很容易地
计算
每个参数
的
梯度
,通过递归地从网络
的
最后一
层
开始
计算
梯度
,但是假设我有一个由不同类型
的
层
组成
的
神经网络,例如输入->卷积
层
->ReLu->max池->完全连接
层
->siftmax
层
,我
如何
计算
每个参数
的
梯度
?
浏览 0
提问于2016-09-26
得票数 2
回答已采纳
2
回答
如何
训练我自己
的
自定义词嵌入网页?
、
、
、
、
我有大量
的
文本数据在多个网页上
的
产品,我有兴趣出售给客户。我试着在维基百科上使用预先训练过
的
快速文本词嵌入,但它并没有给我分类任务带来好
的
结果。我
如何
使用
Keras
来训练我自己
的
自定义单词嵌入到这些网页上? 我知道嵌入有trainable=True选项,
浏览 2
提问于2019-01-24
得票数 1
1
回答
扩充
keras
模型输出,并将其作为第二个模型
的
输入
、
我正在尝试训练一个级联模型,在该模型中,我希望获得model1
的
输出,对其
进行
扩充,并将其提供给第二个模型。如果可能的话,我想端到端地训练这两个网络。 现在我想知道这在
Keras
中是否可能?谢谢你
的
建议, 干杯, 我
浏览 9
提问于2020-01-22
得票数 0
回答已采纳
2
回答
反向
传播
和
梯度
下降是否使用相同
的
逻辑?
、
、
、
在CNN中使用
反向
传播
来更新随机分配
的
权重、偏差和滤波器。对于值
的
上升,我们从端到尾用链规则求出
梯度
,并使用该公式,
梯度
下降是一个优化器,用于优化损失
函数
。这里还
计算
了
梯度
,公式是如果我在上面给出
的
解释是错误<e
浏览 5
提问于2021-02-15
得票数 2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
基于Numpy实现的简单神经网络
只用NumPy实现神经网络
如何只用NumPy码一个神经网络
用Python 进行深度学习
为什么我们需要一个比反向传播更好的学习算法?
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券