腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(5699)
视频
沙龙
1
回答
在
Tensorflow
中
拟合
模型
时
,
批量
大小
和
纪元
数
应该有
多大
?
、
在
Tensorflow
中
拟合
模型
时
,
批量
大小
和
纪元
数
应该有
多大
?有没有什么基于数据输入
大小
的经验法则?我应该将其拆分为训练/val/test,还是继续使用当前拆分的train/val?
浏览 14
提问于2017-07-03
得票数 0
6
回答
在
Keras
中
拟合
模型
时
,
批量
大小
和
纪元
数
应该有
多大
?
、
、
、
在
Keras
中
拟合
模型
以优化val_acc
时
,批处理
大小
和
纪元
数
应该有
多大
?有没有什么基于数据输入
大小
的经验法则?
浏览 1
提问于2016-01-28
得票数 83
1
回答
在
Keras
中
拟合
模型
时
,
批量
大小
和
纪元
数
应该是多少?
、
、
、
我正在训练一个有107850个样本的
模型
,并对26963个样本进行验证。谢谢。
浏览 2
提问于2019-08-04
得票数 3
1
回答
当你有一个有效的ML
模型
,但没有好的结果
时
,你会怎么做?
如果之前有人问过这个问题,我很抱歉,我尝试过在线查找,但可能我不知道正确的术语,因为我找到的结果大多试图通过拆分数据集来解决过度
拟合
问题。因此,当我的
模型
在
验证数据上停留在30%的准确率并拒绝改进
时
,我的策略往往是尝试更改每层的节点数、批处理
大小
或
纪元
数
。有时这很有帮助,但有时似乎没有
多大
用处。 在这种情况下,人们通常会做什么?
浏览 0
提问于2018-06-15
得票数 0
1
回答
SkLearn SGDRegressor
中
partial_fit
中
的批处理
大小
和
纪元
数
、
、
此外,我使用partial_fit方法对X
和
Y进行部分
拟合
。请问我在哪里提到
批量
大小
和
纪元
数
? 例如,如果我想使用2000条记录
和
10个时期的批处理
大小
在
整个数据集上以增量方式训练
模型
。
浏览 43
提问于2020-08-31
得票数 0
回答已采纳
0
回答
在
CNN上,快速损失收敛意味着什么?
、
、
、
、
我正在两个不同的DL库(Caffe
Tensorflow
)
中
训练两个CNN (AlexNet E GoogLeNet)。网络由每个图书馆(
和
)的开发团队实施 <e
浏览 5
提问于2017-12-05
得票数 2
回答已采纳
3
回答
大型
模型
的最佳批次
大小
和
时期
、
、
、
、
我知道有一些相关的问题,但我希望有人能提供一些建议,具体到我试图建立的
模型
。我运行了一个顺序
模型
(下面的代码),其中我使用了64
和
30个时期的批处理
大小
。代码花了很长时间才能运行。
在
30个时期之后,
在
验证集上的准确率约为67,
在
训练集
浏览 0
提问于2020-04-19
得票数 0
1
回答
Tensorflow
中有没有等同于torchsummary的东西?
、
、
、
我使用GPU
在
一个
大小
为55 on的数据集上运行一些非常大的深度学习
模型
。如果我使用一个大于1的批处理
大小
,我会得到一个资源耗尽错误。即使批处理
大小
为1,我也会得到分割错误。有没有办法让我知道GPU
中
的数据量(批处理
大小
为1)会有
多大
?我正在使用tf.Keras来
拟合
模型
。
TensorFlow
中
是否有torchsummary等效项?
浏览 32
提问于2021-08-10
得票数 0
1
回答
TFF:.repeat()的必要性是什么?
当我阅读
tensorflow
联合用于图像分类的
时
,我发现了.repeat(),我想了解这个预处理函数的必要性,特别是当我增加.repeat()
中
的数字
时
,模拟需要很多时间。那么,如果有必要做.repeat(),我们可以选择多少个
纪元
呢?
浏览 1
提问于2021-02-16
得票数 1
1
回答
如何在自定义keras损失函数
中
添加基于示例的参数?
、
、
、
我希望
在
keras中有自定义的损失函数,每个训练示例都有一个不同的参数。上看到,y_true
和
y_pred总是传递给损失函数,所以你需要创建包装函数。model.compile(loss=my_mse_loss_b(df.iloc[:,2]), optimizer='adam', metrics=['accuracy']) 问题是,当我
拟合
模型
时
,会有一个错误
tensorflow
.python.framework.errors_impl.Inval
浏览 35
提问于2021-07-23
得票数 0
回答已采纳
1
回答
是否有可能在Keras中使用张量数据而不是特性
和
标签numpy数组来输入
模型
?
、
、
、
我有一个机器学习
模型
,我想做超参数隧道上。此
模型
中使用的数据是使用
tensorflow
数据张量进行预处理的,我已经对张量
中
的数据进行了洗牌
和
批量
处理。这是很好的工作,同时
拟合
模型
。我已经尝试检索内部numpy数组来为kt
中
的
模型
提供数据,但是我想知道
在
kt
中
是否可以使用张量
浏览 3
提问于2020-08-24
得票数 1
回答已采纳
3
回答
冻结
模型
并进行训练
、
、
我正在使用Colab
中
的Keras
Tensorflow
。我
拟合
了一个
模型
并保存了它。然后我加载它并检查性能,当然它应该是相同的。然后我冻结它,然后重新
拟合
它。我希望之后的
模型
也能有同样的性能。当然,
在
“训练”期间,由于
批量
大小
的差异,准确性可能会有所不同。但之后,当用model.evaluate检查它
时
,我预计没有区别,因为权重不能改变,因为
模型
是冻结的。然而,事实证明并非如此。(x_test_p
浏览 50
提问于2020-09-17
得票数 2
2
回答
keras验证之字形原因
、
我正在训练一个神经网络,并得到关于损失和验证损失的结果: 这些是200个时期,
批量
大小
为16,500个训练样本
和
200个验证样本。正如你所看到的,
在
大约20个时期之后,验证损失开始做一个非常夸张的Z字形。我试图增加验证样本的数量,但这只会增加之字形,并使其更加夸张。我
在
寻找另一种方法来改善它。 你知道哪个是“之字形”的原因吗?我怎样才能最小化它?
浏览 0
提问于2019-07-29
得票数 1
1
回答
卷积神经网络(CNN)输入形状
、
、
、
我将把这些数据输入到我的
模型
中
,以预测即将到来的时间段。因此,我将有一定数量的
时
隙用于预测(假设10个
时
隙,到目前为止,我可能有10X10X10数据)。现在,我的问题是,我必须将这些数据作为具有10个通道的2D图像(就像CNN、RGB图像
中
的普通数据)或3D数据进行处理。(Keras
中
的conv2D或conv3D )。 提前感谢您的帮助。
浏览 10
提问于2020-02-11
得票数 4
回答已采纳
1
回答
如何在
TensorFlow
评估人员培训
中
监测验证损失?
、
、
、
我想问一个问题,如何监测验证损失
在
培训过程
中
的估计者
在
TensorFlow
。我以前也问过一个类似的问题(),但没有
多大
帮助。如果我使用估计器来构建
模型
,我将给Estimator.train()函数一个输入函数。但是
在
培训过程
中
没有办法添加另一个validation_x
和
validation_y数据。然而,这些信息无助于防止过度
拟合
。更有价值的信息是验证损失。通常情况下,验证损失是U字形,与时间数有关.为了防止过<em
浏览 0
提问于2018-11-09
得票数 6
回答已采纳
0
回答
具有多个工人的ML engine上的Keras
模型
训练
我已经构建了一个语义分割Keras (
tensorflow
后端)
模型
,并试图
在
google cloud ml引擎上对其进行训练。我有大约200,000 (256x256)个图像可以
在
小
批量
(10)上训练大约100个时期。当我只使用complex_model_m_gpu类型的主设备
时
,1个
纪元
几乎要花25个小时。我不确定Keras
模型
如何适应多GPU训练设备(例如,complex_model_m_gpu)。没有关于这方面的文档,只有关于分布式
Te
浏览 11
提问于2018-07-18
得票数 2
2
回答
用于Google Colab上TPU的Mask R-CNN
、
我们正在尝试使用Google Colab TPU构建一个图像分割深度学习
模型
。我们的
模型
是Mask R-CNN。TPU_WORKER = 'grpc://' + os.environ['COLAB_TPU_ADDR'] tpu_model = tf.contrib.tpu.keras_to_tpu_modeltf.contrib.tpu.TPUDistributionStrategy( tf.contrib.cluster_reso
浏览 0
提问于2018-10-17
得票数 3
1
回答
获取R Studio中经过训练的
模型
keras/
tensorflow
的激活函数(
和
超参数)
、
、
我已经
在
R Studio中使用keras/
tensorflow
训练了一个
模型
并存储了它。我现在用以下命令重新加载
模型
: my_model <- load_model_hdf5("my_model.h5") 使用 summary(my_model) 我得到了
模型
的摘要,包括层的数量
和
大小
。其次,是否也有方法访问超参数,如
纪元
编号、批处理
大小
、..
在
训练这个
模型
<e
浏览 19
提问于2019-09-29
得票数 0
回答已采纳
1
回答
如何为机器学习的训练集找到正确的编号
、
、
我想开发一个机器学习算法,使用knn
模型
来对我的数据记录进行分类。我的问题是:是否有一个通用的方法来确定我的训练数据集
应该有
多大
?
浏览 0
提问于2021-09-07
得票数 1
1
回答
在
培训期间更改批次
大小
、
、
、
从某种意义上说,批次
大小
的选择是随机性的度量: 一方面,较小的批
数
使得梯度下降更具有随机性,SGD
在
整个数据上可以明显偏离精确的GD,但允许进行更多的探索,并在某种意义上进行贝叶斯推断。较大的批次
大小
更接近于精确的梯度,但这样更有可能使数据过
拟合
或陷入局部最优。处理更大的
批量
也加快了并行结构的计算,但增加了对RAM或GPU的需求。似乎一种明智的策略是从较小的
批量
开始,
在
初始阶段进行大量的探索,然后逐步增加
批量
大小
,对
浏览 0
提问于2021-01-29
得票数 6
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Epoch不仅过时,而且有害?Reddit机器学习板块展开讨论
用Tensorflow搭建卷积神经网络
PyTorch VS TensorFlow谁最强?这是标星15000+Transformers库的运行结果
搭建一个简单的神经网络
几种经典卷积神经网络介绍
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券