腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
损失
函数
中
的
正则
化
项
进行
数学
运算
和
赋值
、
、
、
、
我认为我仍然在努力理解Tensorflow框架,以及如何以正常
的
数组
和
numpy
的
方式操作它。有了
损失
,我就有了预测值
和
真实值: y_pred
和
y_true,我想迭代y_pred值并为它
赋值
1或0,对于根据一些更小、<或更大、>
的
条件
的
损失
函数
。else: return test * y_true
浏览 21
提问于2021-01-30
得票数 1
回答已采纳
1
回答
机器学习
中
损失
函数
的
图形来自哪里?
、
、
、
机器学习
中
损失
函数
的
图形来自哪里?我正在学习关于机器学习
的
知识。我有时不理解使用
正则
化
项
进行
优化
的
模型。在
正则
化
的
解释
中
,可能会出现如下图。 y = w1x1 + w2x2 为了简单起
浏览 24
提问于2020-02-26
得票数 1
1
回答
正则
化
是否包括在
损失
历史记录,Keras返回?
、
现在,我正在测试
正则
化
以及如何使用它们。在我看来,在有
和
没有
正则
化
的
训练课上,
损失
历史
的
结果似乎增加了
正则
化
的
术语,对吗?当我
的
模型没有
正则
化
项
时,
损失
值从小于1开始,但是当我用
正则
化
(L1L2)对模型
进行
再训练时,相同问题
的
损失<
浏览 0
提问于2018-08-12
得票数 2
回答已采纳
3
回答
什么是体重衰减?
、
、
、
我最近开始学习ML
和
TensorFlow。在浏览网站上
的
时,我看到了一段让我有点困惑
的
段落: 训练网络
进行
N维分类
的
常用方法是多项式logistic回归。softmax回归Softmax回归将一个softmax非线性应用于网络
的
输出,并计算归一
化
预测
和
标签
的
1-热编码之间
的
交叉熵。对于
正则
化
,我们还将通常
的
质量衰减
损失
应用于所有学习变量。模型<
浏览 14
提问于2017-08-07
得票数 2
回答已采纳
1
回答
Keras自定义
损失
计算不正确
、
、
、
、
我正在尝试使用Keras
中
的
自定义
损失
函数
。我
的
实现类似于: ...)时,我得到
的
输出如下:1/2 [==============>...............] - ETA: 76s - loss: 482.6910 - category_loss00 - val_confidence_loss: 400.0000 - val_local_loss: 6.5036 - val_tot_lo
浏览 7
提问于2018-01-29
得票数 3
回答已采纳
1
回答
线性数据
的
正则
多项式回归&只罚2次系数
、
、
、
、
我在Python
中
实现了梯度下降,使用MSE作为
损失
函数
执行
正则
化
多项式回归,但在线性数据上(以证明
正则
化
的
作用)。所以我
的
模型在表格下面:在我
的
损失
函数
中
,R代表
正则
化
项
:让我们以L2-范数作为
正则
化
,
损失
函数
w.
浏览 2
提问于2019-12-27
得票数 1
回答已采纳
1
回答
tensorflow
的
正则
化
损失
是什么?
、
、
当使用Tensorflow对象检测API训练对象检测DNN时,它
的
可视
化
平台Tensorboard绘制了一个标量regularization_loss_1谢谢!
浏览 2
提问于2018-01-25
得票数 25
回答已采纳
1
回答
理解稀疏自动编码器背后
的
逻辑
、
、
、
我目前正在使用一个稀疏自动编码器,我所理解
的
是,我们不需要所有隐藏单元为每个输入触发,而是根据输入类型
的
不同一些特定
的
隐藏单元。为此,我们在
损失
函数
中
添加了一个稀疏
正则
化
项
。但我无法理解如何将这个
正则
化
项
添加到
损失
函数
中
,以帮助我们阻止某些隐藏
的
单位触发?。
浏览 2
提问于2020-05-12
得票数 0
1
回答
Keras
正则
化
与自定义
损失
、
、
现在,如果我使用Keras实现二进制交叉熵
损失
()来训练这个模型,我可以肯定在计算
损失
时会考虑到我指定
的
L2
正则
化
。但是,在我
的
示例
中
,除了y_true
和
y_pred之外,还有一个自定义丢失
函数
需要其他几个参数,这意味着我无法将这个
函数
作为model.compile(...)
的
loss参数
的
参数传递(实际上,我甚至不调用重复 我
的
问题是:正规
化</
浏览 1
提问于2020-09-18
得票数 3
回答已采纳
5
回答
正则
化
参数在
正则
化
中
是如何工作
的
?
、
在机器学习成本
函数
中
,如果我们想要最小
化
两个参数
的
影响,比如theta3
和
theta4,似乎我们必须给出一个很大
的
正则
化
参数值,就像下面的等式一样。 我不太确定为什么更大
的
正则
化
参数会减少而不是增加影响。这个
函数
是如何工作
的
?
浏览 0
提问于2017-06-25
得票数 4
1
回答
解卷积网络损耗
函数
的
理解
、
、
、
本文(1)给出了一个反卷积网络
的
描述。📷 深绿色标记词是什么意思?
浏览 0
提问于2021-10-04
得票数 1
回答已采纳
1
回答
正规
化
:在哪里使用惩罚成本
函数
?
、
L1
正则
化
在代价
函数
中
增加了一个惩罚
项
,以限制权重
的
大小。我是否正确理解这个惩罚成本
函数
只用于优化步骤,而不是计算模型
的
损失
?例如,为了在验证集中计算模型
的
损失
,需要使用非惩罚
损失
函数
?
浏览 0
提问于2018-10-23
得票数 1
回答已采纳
1
回答
在sklearn
中
,HistGradientBoostingRegressor
的
参数l2_regularization
中
可以包含哪些值
、
、
、
、
我正在试着在sklearn
中
调优
的
超参数,想知道l2_regularization
的
可能值是什么,其余
的
参数网格看起来像这样- 'learning_rate': [max_iter': [1000, 1200], 'max_depth': [None, 10, 20]在这里,.12
和
1000次迭代
的
学
浏览 121
提问于2021-06-12
得票数 0
回答已采纳
1
回答
复制构造
函数
和
赋值
运算
符
的
Value -like实现
几个月前,我问了一个关于复制构造
函数
和
赋值
运算
符
的
问题,但我并没有真正解决它,现在我又被同样
的
问题卡住了。我必须实现一个包含指针
的
类
的
复制构造
函数
、
赋值
运算
符
和
析构
函数
,并且实现必须是类似于值
的
,即不同
的
对象不能指向同一个变量。= &b){ delete item;
浏览 13
提问于2019-12-10
得票数 0
回答已采纳
1
回答
为什么变分自动编码器在许多实现
中
的
损失
与论文中
的
符号相反?
、
、
、
、
我想我理解了自动编码变分贝叶斯
的
论文。我正在阅读一些实现这篇论文
的
tensorflow代码。但我不理解他们在这些代码
中
的
损失
函数
。由于许多代码都是以相同
的
方式编写
的
,所以可能我错了。Loss_func
浏览 12
提问于2017-08-08
得票数 2
回答已采纳
1
回答
试图了解
正则
化
程序是如何工作
的
、
查看L2
正则
化
程序
的
代码,我理解它意味着对任何不是零
的
东西都要
进行
惩罚。换句话说,允许避免这种惩罚
的
理想张量应该只包含零。我是否正确理解这个概念?
浏览 1
提问于2022-07-03
得票数 0
回答已采纳
2
回答
64位整数方程式中出现意外结果
、
我想问一个关于以下方程式
的
问题:我使用它将传入
的
值限制在给定无符号整数类型
的
最小值
的
步长内我已经使用它一段时间了,并且工作得很好,直到最近我发现它可以产生意想不到
的
结果。下面的程序演示了我
的
观点:#include <cstdio> #include <cstdlib&g
浏览 1
提问于2015-08-04
得票数 2
2
回答
为什么L2
正则
化
不添加到原来
的
损失
函数
中
?
、
、
、
我知道,当使用内核
正则
化
,特别是l2丢失时,我应该将它添加回丢失
函数
中
,这就是在其他帖子中所做
的
。然而,在Keras
中
,他们没有遵循这个过程。为何会这样呢? 例如,考虑
和
笔记本。他们在一些层中使用l2丢失作为核心
正则
化
,但没有添加到原始丢失
中
。这是因为特殊
的
损失
,还是仅仅是Keras
的
行为,还是我完全误解了一切?
浏览 0
提问于2018-12-30
得票数 2
回答已采纳
2
回答
如何通过在交叉熵
中
添加负熵来创建自定义
损失
函数
?
、
、
、
、
我最近读到了一篇题为"REGULARIZING NETWORKS BY PENALIZING OUTPUT DISTRIBUTIONS https://arxiv.org/abs/1701.06548"“
的
论文作者讨论了通过向负对数似然添加负熵
项
来惩罚低熵输出分布以及为模型训练创建自定义
损失
函数
来对神经网络
进行
正则
化
。 ? 值β控制置信度惩罚
的
强度。我已经为分类交叉熵编写了一个自定义<
浏览 33
提问于2021-08-24
得票数 5
回答已采纳
3
回答
为什么在机器学习问题中需要使用
正则
化
?
、
、
、
、
这似乎是个愚蠢
的
问题,但我就是想不出一个合理
的
答案。f(x) = Wx 模型
的
复杂性在某种程度上是明确
的
:它是线性
的
,不是二次型
的
,也不是更复杂
的
。那么,为什么我们仍然需要对参数
进行
正则
化
呢?在这种情况下,我们为什么更喜欢较小
的
重量呢?
浏览 3
提问于2016-01-14
得票数 9
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
七月在线机器学习笔记——1
专家观点:L1正则稀疏?
机器学习系列之——正则化
Python入门基础-day01
从0到1:神经网络实现图像识别(四)
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券