腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
0
回答
训练
精度
在
某些
时期
下降
、
、
我正在
训练
一个ResNet (CIFAR-10数据集),
训练
准确率大部分(
在
95%的
时期
)都在增加,但有时它会
下降
5-10%,然后又开始增加。51s 1ms/step - loss: 0.5453 - acc: 0.8165 - val_loss: 1.0232 - val_acc: 0.6963那么,为什么会发生这
浏览 0
提问于2017-11-24
得票数 2
回答已采纳
1
回答
只有
在
验证改进的情况下,我才能更新keras神经网络的权重吗?
、
、
、
、
我正在keras中
训练
神经网络,我达到了一个经典的极限-我的
训练
精度
随着时代的增加而提高,但我的验证
精度
在
9个时代之后会
下降
(见图)。 ? 我想知道我是否可以通过执行以下操作来避免验证
精度
的
下降
:如果
时期
导致验证
精度
的提高,则使keras net仅接受每个
时期
之后对权重的更改,否则重置为
时期
之前的状态?我假设验证
在
很大程度上开始偏离,因为
在
浏览 15
提问于2019-09-01
得票数 0
1
回答
CNN链接器中验证
精度
的
下降
、
、
我正在使用CNN
在
Chainer中对细胞图像进行分类。随着主/
训练
精度
的提高,模型的验证
精度
也在
下降
。我想知道为什么验证准确率在
下降
,有什么方法可以提高验证准确率。我已经
在
除最后一层之外的所有层中应用了relu和dropout。
在
该模型中,即使
在
50个
时期
之后,
训练
和验证
精度
也是不变的。下面给出的模型显示主/
训练
精度
从0.78
浏览 24
提问于2019-01-08
得票数 1
回答已采纳
1
回答
神经网络的验证
精度
、
、
、
在
训练
神经网络时,我通常把
在
验证数据上获得的
精度
(验证
精度
)作为网络性能的中间度量--最终的度量是测试
精度
。根据
训练
数据的大小,
在
一个
时期
内测量此验证
精度
一次或多次。通常,我停止
训练
时,验证准确性开始
下降
-一个迹象的过度拟合。 然而,对于大型数据集,我通常没有足够的计算能力来等待验证的准确性
下降
。我只是
在
验证的准确性(或验证损失)保持一段时间不
浏览 0
提问于2018-03-24
得票数 1
1
回答
非常低的损失和低
精度
是否表示过拟合?
、
、
、
、
我正在
训练
一个CNN-LSTM concat模型,经过20个
时期
后,我得到了69%的准确率和0.04 %的损失?我知道非常高的
训练
精度
和相对较低的验证
精度
的组合表示过拟合,但我想知道低
精度
和非常低的损失是否也表示过拟合。 总体而言,准确率呈线性增加,损失呈指数
下降
。
浏览 37
提问于2020-01-30
得票数 0
回答已采纳
1
回答
解释验证损失
、
、
、
如果我绘制每个
时期
之后得到的结果,我会得到以下结果:enter image description here 我的
训练
精度
和验证
精度
提高了,我的
训练
损失减少了,但验证损失虽然
下降
了一些,但并不是非常接近
训练
损失验证损失没有像
训练
损失减少那么多的事实是否意味着我有过度拟合? (以防万一,我做了25个
时期
,批量:128,学习率:0.0001,
训练
/验证分割:0.40) 谢谢你的帮助
浏览 53
提问于2020-08-11
得票数 1
回答已采纳
1
回答
训练
精度
下降
、
、
、
问题是,
在
训练
过程中,
精度
在
每一个
时期
都在
下降
,如图所示。如果有人能告诉我原因,我会很感激的。
浏览 0
提问于2019-04-23
得票数 0
回答已采纳
3
回答
什么是神经网络的新纪元?
、
什么是神经网络中的纪元EPOCH用于更新权重。更改"Training data(Input data)"?
浏览 0
提问于2016-05-16
得票数 1
2
回答
是什么导致了
训练
精度
的大幅提高和各
时期
之间的损失?
、
、
、
在
python的Tensorflow 2.0中
训练
一个神经网络时,我注意到
训练
的准确性和损失
在
不同
时期
之间发生了很大的变化。我知道,所打印的指标是整个时代的平均值,但在每一个时代之后,
精度
似乎都会显著
下降
,尽管平均值总是
在
增加。 我
在
我自己实现的所有模型上都注意到了这种行为,所
浏览 5
提问于2019-10-14
得票数 10
回答已采纳
3
回答
哪个是更重要的-稳定的
训练
结果还是好的测试结果?
、
、
、
哪个是更重要的-稳定的
训练
结果还是好的测试结果?哪一个是最好的选择?
浏览 0
提问于2018-09-13
得票数 2
3
回答
小批量梯度
下降
,亚当和纪元
、
、
mean_squared_error')根据我所知道的定义,1个epoch =遍历所有
训练
示例一次以进行一次权重更新优化器采用batch_size算法,将
训练
样本分成小批。每个小批量的大小为batch_size。 我不熟悉adam优化,但我相信它是GD或Mini batch GD的变体。梯度
下降
-有一个大的批次(所有数据),但多个纪元。迷你批次梯度
下降
-使用多个迷你批次,但只有一个<em
浏览 2
提问于2018-07-17
得票数 1
3
回答
我们如何知道何时停止
在
预先
训练
的模型上
训练
模型?
、
、
、
但我
在
深度学习和咖啡因方面还是个新手。我们如何检测需要多少次迭代才能对我们自己的数据集上的预
训练
进行微调?例如,我使用5个类对我自己的数据运行fcn32。我什么时候可以通过观察
训练
阶段的损失和准确性来停止微调过程? 非常感谢
浏览 66
提问于2017-01-15
得票数 1
1
回答
除了监控poets的Tensorflow for poets google代码实验室项目的进度之外,验证集还用于其他用途吗?
、
、
、
、
我想知道验证集是否以任何方式影响了网络的
训练
,或者它的唯一目的是监控
训练
进度(与tensorflow for poets项目有关)。如果没有,一旦我知道我的数据集的准确性,是否可以将验证和
训练
集减少到零?因此,通过这种方式,我可以使用我所能提供的最大量的数据来
训练
模型。
浏览 2
提问于2017-11-17
得票数 0
1
回答
神经网络的期望行为是什么?
、
、
我尝试了几个神经网络,我想知道,我什么时候才能有一个好的
训练
模型。在哪种情况下,我会有一个
训练
得更好的模型?什么是所需的行为? 谢谢
浏览 15
提问于2019-11-08
得票数 2
3
回答
如何在Keras中保存每个
时期
的
训练
历史?
、
、
我不能让我的电脑整天运行,为此,我需要在每个
时期
之后保存
训练
历史。例如,我已经
在
一天内
训练
了100个
时期
的模型,第二天,我想再
训练
50个
时期
。我需要生成整个150个
时期
的损失与
时期
和
精度
与
时期
图。有没有办法保存每个
时期
之后的
训练
历史(最有可能的是使用Callback)?我知道如何在
训练
结束后保存
训练
历史。我正在使用Tensorf
浏览 0
提问于2018-05-02
得票数 13
1
回答
验证损失较大,验证
精度
>学习
精度
,但测试
精度
较高。我的模特是不是太合适了?
、
、
我正在
训练
一个模型,使用作者最初的学习速率(我也使用他们的github ),我得到了一个不断振荡的验证损失,它会减少,然后突然跳到一个很大的值,然后再次
下降
,但从没有真正收敛到它得到的最低值是2(而
训练
损失收敛到
在
每一个时代,我得到
训练
的准确性,
在
最后,验证的准确性。验证
精度
总是大于
训练
精度
。 当我测试真实的测试数据时,我得到了很好的结果,但是我不知道我的模型是否太合适了。我预计一个好的模型的val损失会以类似的方式与
训练</
浏览 0
提问于2019-03-26
得票数 9
回答已采纳
1
回答
在
keras中,从一开始就有很高的
训练
准确率是正常的吗?
、
、
我正在
训练
一个做图像字幕的模型。我注意到我的模型
在
第一个
时期
获得了非常高的
训练
精度
(大约89%)以及验证
精度
。实际上,
训练
精度
从第一个
时期
的开始就处于一个非常高的水平,它从%60左右开始,很快就上升到%80。这对我来说没有意义,因为模型学习非常快,一开始就有很高的准确性。
浏览 15
提问于2018-08-02
得票数 0
回答已采纳
1
回答
神经网络:验证
精度
恒定,
训练
精度
下降
、
我
训练
了它大约100个
时期
。当前的效果是验证损失是恒定的(0.2 +/- 0.03),并且
训练
精度
仍然在
下降
(目前是0.07),但非常慢。我目前
在
第一层使用dropout (50%)。将dropout添加到每个层(大约有15个层)是否有意义?或者我还应该添加L2正则化?使用L2和droput有意义吗? 非常感谢
浏览 0
提问于2016-10-06
得票数 0
1
回答
在
Tensorflow Keras中跳过一个
时期
的权重
、
、
在
我的机器学习任务中,我有一个问题,
在
一些罕见的情况下(
时期
),优化器看到一个糟糕的
训练
集,在那个
时期
之后,权重和偏差变得完全混乱,所以我想放弃这个
时期
。Last loss: {self.last} this loss {current}")model.fit( x,
浏览 33
提问于2020-10-31
得票数 1
2
回答
在
深度学习术语中,耐心意味着什么?
、
我读了Aakash
在
AugMix 上的代码,
在
CTEarlyStopping类下找到了‘耐心’这个词。这不是我第一次遇到这个词,但在这些术语中我是个菜鸟。寻找一个快速的解释。
浏览 4
提问于2020-01-04
得票数 3
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
DeepSparse: 通过剪枝和稀疏预训练,在不损失精度的情况下减少70%的模型大小,提升三倍速度
学界 深度神经网络的分布式训练概述常用方法和技巧全面总结
深度神经网络的分布式训练概述:常用方法和技巧全面总结
利用SKLearn重建线性模型
深度学习与人工智能革命:part III
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券