首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >在AdamOptimizer中使用动态学习率有意义吗?

在AdamOptimizer中使用动态学习率有意义吗?
EN

Stack Overflow用户
提问于 2017-01-03 11:39:40
回答 2查看 3.2K关注 0票数 9

我正在开发一个基于三个类的图像识别的卷积神经网络。我建立了一个基于AlexNet的模型来训练。我想知道两件事:

  1. AdamOptimizer在内部执行学习速率衰减(从固定的给定值)还是不执行?
  2. 如果没有,我可以使用tf.train.exponential_decay来执行衰变吗?

列举了一些小的例子。谢谢

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2017-01-03 11:53:54

正如您在adam.py中看到的,AdamOptimizer将调整其学习速度。

传递给构造函数的学习速率只给出初值。

所以是的,在AdamOptimizer上使用指数衰减没有多大意义,而是在梯度下降或动量优化器上。有关示例,请参见这里

票数 11
EN

Stack Overflow用户

发布于 2017-01-03 19:24:58

AdamOptimizer在内部执行学习速率衰减(从固定的给定值)还是不执行?

是的,亚当确实表现出了学习速率的衰退。

您应该看看Adam是如何工作的:

D. Kingma和J. Ba,“亚当:随机优化的方法”,arXiv预印版arXiv:1412.6980,2014年12月。在网上。可用:https://arxiv.org/abs/1412.6980

总结一下:亚当是RMSProp,有动量和偏倚校正。这里有一个很好的解释:http://sebastianruder.com/optimizing-gradient-descent/index.html#adam

票数 4
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/41442687

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档