腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9086)
视频
沙龙
1
回答
在
重新
运行
model.fit
时
,
使用
步长
衰减
进行
训练
,
而
不
保留
最后
一个
时期
。
学习
率
错误
、
、
我正在尝试
使用
具有
步长
衰减
学习
率
的tf.keras框架来
训练
模型。但是,每次我调用fit方法
时
,
学习
率
都会
重新
启动,并且不会从
最后
一个
状态继续。 以下代码是演示该问题的最小示例。tf.keras.callbacks.LearningRateScheduler(step_decay) print('Learning Rate: ',
浏览 21
提问于2019-01-16
得票数 1
回答已采纳
2
回答
在
TensorFlow/Keras中,当
使用
学习
率
衰减
时
,恢复
训练
时
的行为是什么?
、
、
、
我很难理解当模型从磁盘加载
时
,当
使用
像下面这样的调度器
时
,
训练
将如何恢复。tensorflow.keras.optimizers.schedules.ExponentialDecay(decay_steps=1000, staircase=True) 考虑这个假设的情况,我
训练
了
一个
时期
的模型并保存了下来后来,我加载了模型并
重新
拟合。在这种情况下,
训练
是从先前保存模型
时</
浏览 98
提问于2021-03-01
得票数 1
回答已采纳
2
回答
Epsilon贪婪Q
学习
中的epsilon和
学习
率
衰减
、
、
随着你了解未来的奖励,epsilon应该会
衰减
,这样你就可以利用你发现的更高的Q值。 然而,
在
随机环境中,我们的
学习
率
是否也会随着时间的推移
而
下降?所以我看到的帖子只讨论epsilon衰变。
浏览 1
提问于2018-11-08
得票数 12
回答已采纳
1
回答
如何确定神经网络
训练
过程中的
学习
率
?
、
、
、
例如,如果我想
使用
手动
学习
率
,初始
学习
率
为0.01,10000步后
衰减
学习
率
为0.001,20000步后
衰减
学习
率
为0.0001。 我如何才能知道这些我需要
衰减
学习
率
的步骤?有什么经验可以指导我吗?我们通常可以
在
论文中找到这些步骤,但作者是如何获得这些步骤的?
浏览 11
提问于2017-12-08
得票数 0
1
回答
EarlyStopping采用的是上
一个
时代的模型还是上
一个
最好的分数?
、
、
、
、
我
在
带有patience=2的回调中
使用
EarlyStopping
在
keras中
训练
了
一个
模型Wall time: 58.4 s 显然,模型
在
第二个
时期
之后没有改善,但patience=2
浏览 1
提问于2020-11-26
得票数 1
1
回答
迁移
学习
中的模型微调
、
、
、
、
我正在研究
一个
深度
学习
模型,用于“年龄不变的人脸检测”。我开始对数据
进行
预处理,包括通过MTCNN
进行
人脸裁剪,图像对比度校正和锐化。然后我开始构建模型架构,我设计了
一个
定制的顺序CNN模型。
训练
和验证损失接近1.9,但模型
一个
时期
大约需要8小
时
。我需要快速的结果,所以我开始尝试迁移
学习
。我读到一篇论文,说Resnet-18在任务中表现很好,所以我首先
使用
了Resnet-18。尝试通过改变
学
浏览 17
提问于2020-10-02
得票数 0
2
回答
在
适度硬件设置上
训练
Tensorflow Inception-v3 Imagenet
、
、
、
我一直
在
一台普通的机器上
训练
盗梦空间V3,只有一颗GPU (GeForce GTX980Ti,6 6GB)。最大批处理大小似乎约为40。我
使用
了inception_train.py文件中指定的默认
学习
率
设置:initial_learning_rate = 0.1、num_epochs_per_decay = 30和learning_rate_decay_factor经过几周的
训练
,我能够达到的最佳精度如下(大约500K-1M迭代): 2016-06-06 12:07:52.245005:
浏览 2
提问于2016-07-08
得票数 10
3
回答
如何在Keras中设置自适应
学习
率
、
、
、
softmax')model.compile(SGD(lr=.1), loss='binary_crossentropy', metrics=['accuracy'])如何设置模型的自适应
学习
率
?
浏览 3
提问于2018-11-26
得票数 5
7
回答
什么是TensorFlow中的纪元?
TensorFlow中的纪元是什么?它的用途是什么?
浏览 2
提问于2016-10-16
得票数 28
2
回答
加载模型后更改优化器或lr会产生奇怪的结果
、
、
、
、
我
使用
的是最新的Keras和Tensorflow后端(Python 3.6) loss='categorical_crossentropy', metrics = ['accuracy']) 如果我加载模型并在不
重新
编译的情况下继续
训练
,我的准确
率
将保持
在
86%左右(即使
在<
浏览 0
提问于2018-05-22
得票数 1
2
回答
神经网络的实现
、
、
30%的准确
率
。有100棵树的随机森林给出了97%的结果。但我听说神经网络可以逼近任何函数。我的理解有什么问题?loss='categorical_crossentropy',另外,我尝试了许多层,激活函数,损失函数,优化器,但从未获得超过30%的准确
率
:
浏览 3
提问于2016-12-01
得票数 1
1
回答
CNN模型
在
达到50%的准确
率
后对数据
进行
过拟合
、
、
、
、
我还尝试添加更多的CNN层,但模型
在
测试集上的平均准确
率
约为45%,表现稍差。我尝试手动计划每10个
时期
的
学习
率
,结果是相同的。重量
衰减
似乎对结果影响不大,从0.1%到0.000001。从以前的测试中,我有
一个
模型,
在
测试和
训练
集上都达到了60%的访问
率
。然而,当我尝试
重新
训练
它
时
,两个集合(
训练
和测试)的acc立即下降到~40,这是没有意义的。
浏览 1
提问于2020-09-21
得票数 5
3
回答
神经网络中的nb_epoch代表什么?
、
、
、
我现在开始发现用于deap
学习
的Keras库,似乎
在
训练
阶段选择了
一个
百分之一的纪元数,但我不知道这个选择是基于哪个假设。
在
Mnist数据集中,选择的纪元数为4: batch_size=128, nb_epoch=4, show_accuracy
浏览 0
提问于2017-07-19
得票数 6
3
回答
如何验证CNN模型的行为是否正确?
、
、
我正在探索
使用
CNN
进行
多类分类。我的模型细节如下:以及培训/测试的准确性/损失:从图像中可以看出,
在
几个年代里,精度从0.08提高到0.39到0.77到0.96。我尝试过更改模型的细节(过滤器的数量、内核大小),但我仍然注意到了相同的行为,而且我没有深入
学习
的经验。这种行为可以接受吗?我做错什么了吗?给出一些背景。
浏览 0
提问于2022-05-19
得票数 0
回答已采纳
1
回答
LSTM
训练
模式
、
、
、
、
我是NNs的新手,我正在用LSTM做我自己的"Hello World“,
而
不是复制一些东西。我选择了
一个
简单的逻辑,如下: 3个时间
步长
的输入。第
一个
是1或0,另外两个是随机数。可以
训练
逻辑以达到100%的准确
率
。我
运行
了许多测试,我发现最有效的模型是3个LSTM层,每个层都有15个隐藏单元。这在22个
时期
之后返回了100%的准确
率
。然而,我注意到了一些我很难理解的事情:在前12个
时期
,模型
在</e
浏览 7
提问于2017-04-17
得票数 4
7
回答
加载经过
训练
的Keras模型并继续
训练
、
、
、
、
我想知道是否有可能保存
一个
部分
训练
的Keras模型,并在再次加载该模型后继续
训练
。#Partly train model #Save(second_training, second_classes, batch_size=32
浏览 789
提问于2017-03-08
得票数 123
回答已采纳
2
回答
当TensorFlow中的
学习
速率
衰减
时
,何时设置楼梯是正确的?
、
、
、
回想一下,当中的TensorFlow 1中的
学习
速率是这样的: 如果参数阶梯为真,则global_step /decay_steps是整数除法,
衰减
学习
率
遵循阶梯函数。什么时候更好地
衰减
每
一个
X数的步骤,并遵循楼梯的情况下的功能,
而
不是
一个</e
浏览 5
提问于2016-06-27
得票数 4
2
回答
Tensorflow -相同模型的第
一个
时期
的损失停滞不前,
在
较早的
运行
时显示出更好的结果
、
、
、
、
我
在
Colab上为我的光通信项目
训练
一个
模型,然后发生了一件奇怪的事情。我首先
训练
的模型显示了接近99%的
训练
和97%的验证准确
率
,但
运行
时
在
晚上的某个时候到期了。现在,对于相同的模型,我尝试
在
重新
连接到
运行
时后
重新
训练
。但现在,准确
率
从第
一个
时期
起保持不变,为25%。令人惊讶的是,有4个类别,我的模型将它们都
浏览 31
提问于2021-11-03
得票数 0
2
回答
Tensorflow for XOR
在
500个
时期
后无法正确预测
、
、
、
、
我正在尝试
使用
TensorFlow实现
一个
神经网络来解决异或问题。我选择sigmoid作为激活函数,shape (2, 2, 1)和optimizer=SGD()。我
在
Google Colab上这样做,Tensorflow的版本是2.3.0。loss=tf.keras.losses.MeanSquaredError(), history =
model.fit
浏览 46
提问于2020-11-04
得票数 3
回答已采纳
1
回答
Gensim Word2vec模型不收敛
、
、
我正在
使用
Gensim Word2vec
在
Tobias提供的著名维基百科转储上
训练
一个
Word2vec模型,链接如下: (大约4GB)。我想知道,我应该
运行
多少个时代的模式
进行
培训,直到该模式将融合。 model = Word2Vec(size=self.1.523399350026239e-06learning_rate=9.140396100157433e-07 我不明白为什么损失函数的结果没有减少,并且<
浏览 1
提问于2018-08-11
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
深度学习中的正则化技术
深度学习中的正则化技术 附Python代码
谷歌新技术:神经优化器搜索,自动找到可解释的优化方法
手把手教你机器学习识别交通路牌,好玩
手把手教你用keras-CNN网络识别cifar10
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券