腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
AWS救生图像分类超参数配置
、
、
、
图像分类超参数配置 我使用SageMaker内置的图像分类来训练模型自己的
数据
集,其中包含三个类对象的原始图像。
浏览 3
提问于2019-08-16
得票数 0
3
回答
在Keras序列模型中使用的历元数
、
、
但我被告知,这是一个非常
大
的数字将用于划
时代
,这将影响网络的性能。 我的问题是:是否有数量有限的
时代
,我不应该超过,请注意,我有2000张
培训
图像和800张验证图像。
浏览 4
提问于2019-06-26
得票数 2
3
回答
一个
时代
在神经网络训练中的意义
、
、
、
当我阅读如何在中构建ANN时,他们说: trainer.trainEpochs( 1) 我找出了这意味着什么,然后我得出结论,我们使用一个
数据
时代
来更新权重,如果我选择用5个历次训练
数据
作为pybrain的建议,
数据
集将被划分为5个子集,而这些
数据
集将更新5倍于最大值。我熟悉在线
培训
,在每个样本
数据
或特征向量之后更新雨刷,我的问题是如何确保5个时点足以建立模型并设定权重?这种方式在在线
培训
浏览 1
提问于2015-07-01
得票数 55
回答已采纳
1
回答
为什么val_accuracy在每个
时代
之后由model.fit()自动打印,而CustomCallback打印的精度却不同?
、
、
、
、
为什么-损失: 0.2105 -准确性: 0.9500 - val_loss: 0.5264 - val_accuracy: 0.9100accuracy:0.700是用CustomCallback打印的?1: checkpoint_callback(start_time),model.fit(train_ds, epochs=40,
浏览 2
提问于2021-07-16
得票数 0
1
回答
在训练一个更快的R模型- 'epoch_length‘是什么意思?
、
、
、
、
另外,如果我有500 num_epochs,那么每个
时代
都有1000步长。在文章中,它指出,“注意,每批只处理这里的一个图像。”
浏览 19
提问于2019-11-27
得票数 1
回答已采纳
1
回答
自动编码器中使用的历元数取决于
数据
集的维数?
、
我开发了一个简单的自动编码器,为了找到正确的参数,我在一小部分
数据
集上使用网格搜索。输出中的历元数可以用在高维训练集上?历元数取决于
数据
集的维数?还是不想?例如,我在一个
大
维度的
数据
集中有更多的历元,而对于一个小的
数据
集,有更少的历元。
浏览 1
提问于2019-06-21
得票数 0
回答已采纳
1
回答
为什么使用更大的验证
数据
集的Google需要更长的时间?
、
、
、
、
编辑:我知道扩大验证
数据
的大小会增加每个
时代
的总时间。但在我的情况下,它增加了3倍的总时间成本!这就是问题所在。Train Data : shape-(3000, 227, 227, 1) type--float32 ) 以200幅图像为验证集,
浏览 0
提问于2020-07-04
得票数 0
1
回答
我如何选择日期和批次大小的数字?
、
、
我有2014年coco
数据
集,需要对其进行
培训
,因为
培训
大约是82700次,测试是40500次。然而,每次使用model.pedict()时,我都会得到相同的句子,具有不同的值,因为我只使用了一个
时代
。现在,我怎样才能确定正确的年代数?我正在尝试20个
时代
,但没有批量大小。是那么回事吗?
浏览 0
提问于2021-07-16
得票数 0
1
回答
训练过程中验证精度突然下降
、
、
、
、
当我训练我的神经网络时,在第8世纪,验证精度突然下降,这意味着什么? Train for 281 steps, validate for 24 steps Epoch 1/10 281/281 [==============================] - 106s 378ms/step - loss: 1.5758 - accuracy: 0.8089 - val_loss: 1.8909 - val_accuracy: 0.4766 Epoch 2/10 281/281 [==============================] - 99s 353ms/step - loss:
浏览 5
提问于2020-03-15
得票数 3
回答已采纳
1
回答
在
培训
期间,如何解释每一批的输出(损失,acc根据什么
数据
计算)?
、
我知道有一个类似的问题"“,但我的问题更具体,我想知道如何计算一个
时代
内每批的损失和acc输出? Epoch x/20:54320/55200 [============================>.] - ETA: 0s - loss: 1.2083
浏览 3
提问于2018-04-27
得票数 1
2
回答
这是一个过载的网络吗?
、
、
、
、
额外信息 2000
时代
训练
培训
损失: 3.1711e-05验证损失
浏览 5
提问于2017-04-03
得票数 2
1
回答
Keras:一个加载的检查点模型恢复训练会降低准确性吗?
、
、
、
然而,我的互联网下降,当加载我的最后一个检查点和重新开始训练从上一季(使用initial_epoch),准确性从89.1 (加载模型值)下降到83.6在第一季的新
培训
。在恢复(重新启动)
培训
时,这是正常行为吗?因为当我的网络崩溃的时候,它已经进入了第30季,而且精确度也没有下降,也没有明显的改善,因此没有产生任何新的检查点,迫使我回到几个
时代
。 提前谢谢你的帮助。
浏览 6
提问于2019-11-04
得票数 0
回答已采纳
2
回答
只使用一个
时代
可以吗?
、
、
我正在用TensorFlow (使用)对生成的
数据
进行神经网络训练。据我所知,每个
时代
我们都使用所有的训练
数据
。由于我可以控制我有多少个例子,似乎最好只是生成更多的
培训
数据
,直到一个
时代
足以训练网络。 所以我的问题是:假设我有足够的训练
数据
,只使用一个
时代
有什么坏处吗?我是否正确地假设百万个例子中的一个
时代
比10万的10个
时代
要好呢?
浏览 4
提问于2016-06-23
得票数 9
回答已采纳
2
回答
更多的
时代
真的是过度适应的直接原因吗?
、
我在在线文章/教程或上看到了一些评论,这些评论表明,越来越多的
时代
会导致过度适应。但我的直觉告诉我,
时代
的数量和过度拟合之间不应该有直接的关系。要进行过度匹配,您需要在模型中有足够的自由参数(我认为这在神经网络中称为“容量”)来生成一个可以复制样本
数据
点的函数。如果您没有足够的自由参数,您将永远不会过分适合。你可能只是身体不太好。所以,真的,如果你没有太多的自由参数,你可以运行无限的
时代
,永远不过分。如果你有太多的自由参数,那么是的,你拥有的时间越多,你就越有可能到达一个你过度适应的地方。但这只是因为运行更多的<
浏览 5
提问于2019-12-28
得票数 2
回答已采纳
1
回答
验证损失仅在第一个时期为零。
、
、
、
、
这个问题在第一个
时代
之后就消失了。虽然这并不能阻止我创建模型,但我仍然无法解释为什么会发生这种情况,我可能会做些什么。
浏览 3
提问于2019-12-02
得票数 4
2
回答
在不同的训练阶段,Keras中是否有任何方法或功能来恢复模型的权重?
、
、
、
我有一个模型,我想训练10个
时代
,为一个特定的超参数设置。
培训
结束后,我将使用history.history对象并找到验证损失最小的时期。一旦我有了这个最好的得分
时代
,我想检索这个模型,并使用它来预测测试
数据
。现在,想象一下我最好的得分
时代
不是最后一个。我想,如果没有,我将不得不创建一本字典,并暂时存储每一个
时代
的模式,直到完成
培训
和找到最好的。但是,在使用model.fit时,没有任何选项可以存储每个
时代
的每个型号。你会怎么做?
浏览 4
提问于2022-02-18
得票数 0
回答已采纳
1
回答
验证
数据
是否对
培训
有任何影响,还是仅起作用而不影响
培训
?
、
、
、
在使用Python的Keras库时,我们在训练模型时使用验证
数据
和
培训
数据
。在每一个
时代
,我们得到一个验证的准确性。这种验证的准确性对下一个
时代
的训练有什么影响吗?
浏览 0
提问于2021-08-04
得票数 1
回答已采纳
1
回答
用相同的
数据
集重新训练保存的模型
、
、
、
、
我想知道,如果我重新训练我保存的模型,我运行了4个
时代
,如果相同的图像设置在10个
时代
,会更快吗? 我的
数据
集包括2个训练和验证文件夹,5个类,3000次
培训
和1000个验证图像。
浏览 3
提问于2019-12-22
得票数 0
2
回答
为什么max_batches与
数据
集的大小无关?
、
、
下面是一个让我的问题更清楚的例子:假设我们有6400张图像,用于
培训
,以识别4个课程。因为我们有6400幅图像,一个完整的
时代
需要100次迭代。因此,这项训练在80个
时代
结束。现在,假设我们有12800张图像。在这种情况下,一个
时代
需要200个迭代。因此,训练在40年代结束。由于一个
时代
指的是通过整个训练
数据
集的一个周期,我想知道为什么我们不增加当
数据
集增加时的迭代次数,以保持历次不变。 换句话说,我要求一个简单的解释,为什么
时代
的数量似乎与
培
浏览 3
提问于2020-05-07
得票数 3
1
回答
Word2Vec应该训练多少个
时代
?什么是推荐的
培训
数据
集?
、
当我运行了15个
时代
的代码时,测试的准确率约为30%。当我跑了100个
时代
时,测试的准确度达到了39%左右。我正在使用Text8
数据
集进行
培训
和问题-Words.txt进行评估。我需要跑更多的
时代
吗?我应该使用不同的
数据
集吗?如何提高测试的准确性?
浏览 2
提问于2017-10-20
得票数 7
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
无锡首次启动大规模大数据人才专项培训
郑州亚马逊培训:卖家如何开启亚马逊选品的3.0时代?
郑州亚马逊培训:亚马逊卖家突破销售瓶颈的4大绝招
大数据时代史学更应有大情怀
大数据时代的三大趋势和三大困境
热门
标签
更多标签
云服务器
ICP备案
对象存储
即时通信 IM
腾讯会议
活动推荐
运营活动
广告
关闭
领券