腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(3057)
视频
沙龙
1
回答
用于二进制分类的Face_Recognition
我正在
训练
一个用于人脸识别的深度学习模型,针对两个人脸。由于我已经
开始
训练
,每个
时期
的
训练
损失
都在
减少
,因此每个
时期
之后
训练
的准确性都会提高。然而,
验证
损失
持续
增加
,
而
验证
准确率为0.5000并保持不变。 如何改进这一点,如何
减少
验证
损失
?
浏览 17
提问于2020-02-22
得票数 0
1
回答
验证
损失
持续
减少
,
而
训练
损失
在
3个
时期
后
开始
增加
、
、
、
、
我正在用经过
训练
的Word2Vec
训练
LSTM模型,经过3个
时期
后
,我
开始
观察到我的
训练
损失
开始
增加
,
而
验证
损失
仍然
在
减少
。精确度也是如此。
训练
准确率
开始
下降,
而
验证
准确率不断提高。我的学习率是默认设置的0.001,当
训练
损失
开始<
浏览 10
提问于2021-01-08
得票数 1
1
回答
是否应该在使用model.compile()之前运行model.load_weights(),如果模型只发生了轻微的变化,比如退出?
、
、
通过数据集进行近24个历次的
训练
和
验证
,一次间歇地
训练
和
验证
8个周期,并在每个间隔之后累计保存权重。我观察到一个
持续
下降的列车&测试
损失
在前16个
时期
,测试
损失
持续
下降,
而
测试
损失
上升,所以我认为这是过度拟合的情况。为此,我试着恢复
训练
,
在
经历了16个
时期
后
,随着超参数的变化,我尝试恢复
训练
,说,<em
浏览 0
提问于2018-05-16
得票数 1
1
回答
在
训练
用于自动语音识别的模型时降低单词错误率
、
、
、
我正在
训练
一个speech to text模型。
在
第一个
时期
,WER为0.33,第二个
时期
的WER仍然相同,但是
训练
损失
增加
了,
而
验证
损失
减少
了。
浏览 5
提问于2020-04-25
得票数 1
2
回答
这是一个过载的网络吗?
、
、
、
、
我
在
keras中
训练
了一个神经网络,得到了这个结果,我想知道这是否太合适了。但在这种情况下,它并没有
增加
。它保持不变,但
训练
损失
减少
。额外信息 2000时代
训练</e
浏览 5
提问于2017-04-03
得票数 2
3
回答
我们如何知道何时停止
在
预先
训练
的模型上
训练
模型?
、
、
、
但我
在
深度学习和咖啡因方面还是个新手。我们如何检测需要多少次迭代才能对我们自己的数据集上的预
训练
进行微调?例如,我使用5个类对我自己的数据运行fcn32。我什么时候可以通过观察
训练
阶段的
损失
和准确性来停止微调过程? 非常感谢
浏览 66
提问于2017-01-15
得票数 1
2
回答
在下面的例子中,用什么
时期
来避免过度拟合是最好的?
、
、
、
、
我有一个8层的完全连接的神经网络,它的
训练
提供了以下准确性和
损失
级数:
在
模型
开始
过度拟合之前,你认为最好的
时期
是什么?橙色的那个?(时代#84 -停滞前的最低
损失
) 或者是另一个观点?
浏览 0
提问于2019-05-06
得票数 1
1
回答
keras使用restore_best_weights提前停止,使用save_best_only和过拟合创建模型检查点
、
、
这篇文章更多的是要求咨询
而
不是要求解决问题。我知道keras、回调、提前弯腰和模型检查点可以防止过拟合。当我
在
restore_best_weights=True中使用早期的弯腰时,由于耐心较小,我有时会错过最好的模型,
而
当我
在
save_best_only =True中使用检查点回调时,我需要做很多
时期
。因此,我认为也许我会以更大的耐心使用提前停止,但我的问题是,
在
一些
时期
之后,我的
验证
损失
是非常Z字形的(即,这意味着它变得越来越小,没
浏览 3
提问于2020-09-01
得票数 0
1
回答
模型
训练
后
角点的曲线val_loss和
损失
、
、
、
、
在
开始
部署之前,我想确保模型做得很好。📷 我以前问过,但我谁也回答不了,所以我又用一个新的帐户提出了我的问题
浏览 0
提问于2023-01-18
得票数 0
3
回答
损失
、准确度、
验证
损失
、
验证
准确度之间的区别是什么?
、
在
每个
时期
的末尾,我得到了例如以下输出:2018-08-06 14:54:12.555511: 2/2 [==============================] - 86s谁能给我解释一下
损失
、准确度、
验证
损失
和
验证
准确度之间的区别?
浏览 0
提问于2018-08-06
得票数 18
回答已采纳
2
回答
时间序列数据的趋势
、
、
、
为此,我
在
某个时间点将我的数据划分为
训练
数据和
验证
数据。时间序列数据具有积极的趋势,因此我的
训练
数据中的平均值低于我的
验证
数据中的平均值,因为我使用较新的数据作为
验证
。在下一个
时期
,模型将通过
训练
数据学习,预测值的平均值将低于0.5,这将
减少
训练
损失
,但会
增加
验证
损失
。只有
在
经历了许多
时期
之后,我才会看到<em
浏览 30
提问于2021-04-21
得票数 0
回答已采纳
2
回答
keras
验证
之字形原因
、
我正在
训练
一个神经网络,并得到关于
损失
和
验证
损失
的结果: 这些是200个
时期
,批量大小为16,500个
训练
样本和200个
验证
样本。正如你所看到的,
在
大约20个
时期
之后,
验证
损失
开始
做一个非常夸张的Z字形。我试图
增加
验证
样本的数量,但这只会
增加
之字形,并使其更加夸张。此外,我向优化
浏览 0
提问于2019-07-29
得票数 1
1
回答
Keras save_weights与ModelCheckpoint的差异
、
"save_weights”
训练
后
模型 但是当使用"load_weights“和"predict”加载
训练
模型时,这两种方法的性能是不同的。我的代码如下
训练
和保存模型 model_checkpoint = ModelCheckpoint("Model_weights.hdf5", verbose=1, save_best_only=Truecallbacks=[csv_logger, early_stopping, model_checkpoint]) Model.sa
浏览 63
提问于2020-06-15
得票数 1
回答已采纳
2
回答
我是否可以根据keras的
验证
损失
来终止一个时代(并进入下一轮的权值初始化)?
、
、
、
我正在Keras中
训练
一个卷积神经网络,后端使用Tensorflow。要做到这一点,我想做100轮,最多12个周期每轮。Keras有这样的选择吗?在他们的文档中
浏览 0
提问于2018-08-07
得票数 0
回答已采纳
1
回答
有人能看看我的Keras CNN模型并帮助我找出提高培训和
验证
准确性的方法吗?
、
、
、
、
steps_per_epoch=350, validation_data = validation_generator, validation_steps = 100, callbacks = cb_list) 一些背景信息:我选择添加辍学层,以帮助
减少
任何情况的过度拟合。图像存储
在
18个不同的类中。大约有11000张
训练
图像和2800张<e
浏览 3
提问于2021-06-03
得票数 0
回答已采纳
1
回答
一种分类算法的学习曲线
、
、
、
非常低的
训练
损失
,这是非常轻微的
增加
增加
的
训练
例子。不匹配模型的学习曲线
在
一
开始
就有较低的
训练
损失
,随着
训练
样本的
增加
而
逐渐
增
浏览 0
提问于2022-01-12
得票数 2
3
回答
如何避免过度拟合的递归神经网络
、
、
我一直
在
训练
基于双向LSTM的RNN进行语音识别,当一个新的上下文到达时,网络似乎就会忘记旧的上下文。不过,我不知道如何解释它的行为;网络似乎过于适合,以至于它一次只记得一个具体案例。指向代码的链接是及其
在
中的输出。 在理解其输出模式方面需要一些帮助。
浏览 2
提问于2017-03-31
得票数 2
回答已采纳
1
回答
神经网络中的
减少
(相对滞后)过拟合
、
、
、
、
在
神经网络中,正则化(如L2、退出)通常被用来
减少
过度拟合。例如,下面的情节显示了典型的
损失
相对于时代,有和没有辍学。实线=列车,虚线=
验证
,蓝色=基线(无辍学),橙色=与辍学。正则化延迟了
验证
损失
开始
增加
的时代,但正则化显然没有降低
验证
损失
的最小值(至少
在
我的模型和教程中是如此)。如果我们
在
验证
损失
最小时使用早期停止
训练
(以避
浏览 0
提问于2019-09-11
得票数 1
回答已采纳
1
回答
在
Keras中冻结的inceptionV3网的奇怪行为
、
、
加载保存的权重并将所有层的可
训练
标记设置为false
后
,我尝试拟合模型,并期望看到一切稳定。但
验证
损失
随着每个
时期
的
增加
而
增加
(和准确率下降),
而
训练
损失
和准确率确实如预期的那样稳定。
浏览 1
提问于2016-12-19
得票数 1
1
回答
为什么迁移学习会导致预
训练
完成
后
随机重新启动错误/丢失?
、
、
、
、
训练
损失
在
多个
时期
减少
,
验证
损失
很容易收敛。 显然,这是
训练
/开发误差之间的方差问题。为了解决这个问题,我知道添加更多的数据是最简单的解决方案。但由于我的笔记本电脑没有足够的内存来
在
单个进程中保存两倍的数据量,所以我决定加载第二组数据(来自相同的分布),并使用迁移学习来重新
训练
从400个
时期
获得上述结果的模型。这些是在运行该进程大约100多个
时期
后
的结果
浏览 1
提问于2017-10-21
得票数 1
点击加载更多
相关
资讯
如何防止我的模型过拟合?这篇文章给出了6大必备方法
马腾宇团队新出大模型预训练优化器,比Adam快2倍,成本减半
直观感受深度学习中的正则化作用及其效果
半天2k赞火爆推特,李飞飞高徒发布33条神经网络训练秘技
《Machine Learning for Humans》第二章:监督学习(一)
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
云直播
活动推荐
运营活动
广告
关闭
领券