前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Adam获时间检验奖!清华揭示保辛动力学本质,提出全新RAD优化器

Adam获时间检验奖!清华揭示保辛动力学本质,提出全新RAD优化器

作者头像
新智元
发布于 2025-04-24 01:42:31
发布于 2025-04-24 01:42:31
1200
举报
文章被收录于专栏:新智元新智元

新智元报道

编辑:LRST

【新智元导读】Adam优化器是深度学习中常用的优化算法,但其性能背后的理论解释一直不完善。近日,来自清华大学的团队提出了RAD优化器,扩展了Adam的理论基础,提升了训练稳定性。实验显示RAD在多种强化学习任务中表现优于Adam。

ICLR(国际学习表征会议)是机器学习领域三大顶会之一,以推动深度学习基础理论和技术创新著称。每年,ICLR时间检验奖都会授予近十年对深度学习领域产生深远影响的里程碑式论文。

今年这一殊荣花落Adam优化器(Adaptive Moment Estimation),该算法于2014年由OpenAI工程师Diederik Kingma和University of Toronto研究生Jimmy Ba提出。

计算机视觉自然语言处理,从强化学习到生成模型,Adam以其卓越的自适应能力,成为当代深度学习模型的「标配」优化器,堪称AI领域的「万金油」。

Diederik Kingma是谷歌的一名研究科学家,曾经是OpenAI初创团队的一员,期间领导了基础算法研究团队。2018年,Kingma跳槽到谷歌,加入Google Brain(现为Google DeepMind),专注于生成式模型研究,包括扩散模型和大型语言模型。他是变分自编码器(VAE)、Adam优化器、Glow和变分扩散模型等工作的主要作者。

Jimmy Ba是深度学习教父Geoffrey Hinton的得意门生,于2018年获得University of Toronto的博士学位。作为Hinton学术家族的核心成员,他在ICLR、NeurIPS等顶级会议发表多篇开创性论文(其中Adam优化器论文引用量已突破21万次),堪称AI领域最具影响力的青年科学家之一。

Adam优化器虽在工程实践中表现优异,但长期以来缺乏对其优异性能的理论解释。

近期,清华大学李升波教授课题组发文 《Conformal Symplectic Optimization for Stable Reinforcement Learning》,解析了这一「黑箱」算法的优化动力学机理。

该课题组的研究发现了神经网络优化过程与共形哈密顿系统演化存在「完美」的数学对偶性,揭示了Adam优化器暗藏的「相对论动力学」和「保辛离散化」本质,并由此提出了训练更加稳定、性能更加优秀的RAD优化器(Relativistic Adaptive Gradient Descent),这一研究工作为神经网络优化动力学的分析及全新算法的设计开辟了新航道。

Adam优化器的历史与算法特点

神经网络的优化主要依赖梯度下降方法。自20世纪50年代随机梯度下降(SGD)首次提出以来,优化算法经历了多次重要演进。从动量方法如SGD-M和NAG,到自适应方法如AdaGrad、RMSprop,优化算法的「演变之战」已持续超过70年。

2014年,Diederik Kingma与Jimmy Ba联合提出了Adam优化器(算法1),将神经网络优化算法的性能向前推进了一大步。该算法的核心设计思想是融合Momentum和RMSProp两大优化方法的优势:

通过指数移动平均计算一阶动量vk+1和二阶动量yk+1,分别估计梯度的一阶矩(即梯度期望)和原始二阶矩(近似于梯度方差)。针对动量零初始化导致的估计偏差,通过引入偏差修正技术,Adam兼具了快速收敛与稳定训练的双重特性。

从算法原理看,Adam优化器通过动态维护一阶动量(方向修正)和二阶动量(步长调节),实现了参数更新的双重自适应:既优化了更新方向,又自动调整了有效学习率,显著加速了网络收敛。其偏差修正机制有效消除了训练初期的估计偏差,确保了参数更新的准确性。

此外,Adam展现出优异的超参数鲁棒性,在大多数场景下无需精细调参即可获得稳定性能。正是这些优势使其成为各类监督学习、强化学习任务的首选优化器。

Adam优化器为何具备如此出色的训练性能?至今仍缺乏对其优化动力学机理的深入解释,这已成为限制新一代神经网络优化算法设计的关键障碍。

梯度下降过程与动力学演化的对偶机制

受中国科学院院士冯康先生和美国国家三院院士M. I. Jordan的研究启发(前者开创了哈密顿算法与保辛离散化理论,后者成功将保辛理论引入最优化领域),清华大学的研究团队提出了一种神经网络优化算法的性能理论解释框架:

第一步,将神经网络的参数优化过程对偶为共形哈密顿系统的状态演化过程,建立参数梯度下降与系统能量耗散之间的内在联系。

第二步,利用保辛机制实现共形哈密顿系统的离散化,将离散系统的优势动态特性映射到神经网络的优化过程,从而完成对算法优化动力学的机理解释。

研究发现,神经网络梯度下降过程与共形哈密顿离散系统的演化呈现高度相似性,通过将网络参数θ对偶为系统状态q,目标函数J(θ)对偶为系统势能U(q),可直接建立二者间的对偶关系。

研究者据此开发了一个全新的网络优化算法开发框架,包含两个核心步骤:

1)动能建模:通过设计合适的动能项T(p)以嵌入期望的动态特性;

2)保辛离散:采用保辛离散方法以精确保持系统的动力学性质。

RAD优化器的设计思路与性能对比

进一步地,研究者将神经网络参数的优化过程建模为多粒子相对论系统状态的演化过程,通过引入狭义相对论的光速最大原理,抑制了网络参数的异常更新速率,同时提供了各网络参数的独立自适应调节能力,从理论上引入了对网络训练稳定性和收敛性等动态特性的保障机制。

这一工作使得研究者提出了既具备稳定动力学特性又适用于非凸随机优化的神经网络优化算法,即RAD优化器(算法2)。

研究发现,当速度系数σ=1且保辛因子ζk取固定小值ε时,RAD优化器将退化为Adam优化器,揭示了Adam优化器的动力学机理,说明了Adam优化器是新提出的RAD优化器的一个特例。

相比于Adam优化器,RAD优化器具有更加优异的长期训练稳定性,这是因为:

1)优化前期:RAD具有类似Adam的快速收敛特性,能够高效定位到最优解的邻域;

2)优化后期:RAD的保辛结构逐渐增强,具备维持共形哈密顿系统动态特性的能力,确保算法具备更加优异的抗干扰能力。

值得注意的是,Adam中的有理因子ε是一个「人为引入」的小常数,用于避免分母为零的数值错误。而RAD的保辛因子ζ与哈密顿系统的「质量×质能」(即m2c2)相关,具有明确的物理根源。

这为之前的经验性发现(即适度增加ε可提升Adam性能)提供了理论性解释:增大ε使得优化过程更加接近原始的动力学系统。该研究成果不仅深化了Adam与动力学系统的本质联系,同时也为分析其他主流自适应优化器(如AdaGrad、NAdam、AdamW等)提供了普适性的框架。

为了评估RAD优化器的性能,研究者在5种主流深度强化学习(DRL)算法(包括DQN、DDPG、TD3、SAC和ADP)和12个测试环境(包括1个CartPole任务、6个MuJoCo任务、4个Atari任务和1个自动驾驶任务)中开展了广泛测试,并与9种主流神经网络优化器(包括SGD、SGD-M、DLPF、RGD、NAG、Adam、NAdam、SWATS和AdamW)进行了比较,结果表明RAD综合性能均排名第一。

特别在图像类标准测试环境Seaquest任务中,RAD性能达到Adam优化器的2.5倍,得分提升了155.1%

参考资料:

[1] Lyu Y, Zhang X, Li S E, et al. Conformal Symplectic Optimization for Stable Reinforcement Learning[J]. IEEE Transactions on Neural Networks and Learning Systems, 2024: 1-15.

[2] Kingma D P, Ba J. Adam: A method for stochastic optimization[C]//3rd International Conference on Learning Representations (ICLR). 2015: 1-11.

[3] Li S E. Reinforcement learning for sequential decision and optimal control[M]. Singapore: Springer Verlag, 2023.

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-04-23,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 新智元 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
Kubernetes 1.24:观星者
我们很兴奋地宣布 Kubernetes 1.24 的发布,这是 2022 年的第一个版本!
CNCF
2022/06/10
4610
Kubernetes 1.24:观星者
Kubernetes v1.24版特性介绍篇
早在 2020 年 12 月,Kubernetes 就宣布弃用 Dockershim。在 Kubernetes 中,dockershim 是一个软件 shim,它允许您将Docker引擎用作 Kubernetes 中的容器运行时。在即将发布的 v1.24 版本中,我们将移除 Dockershim,弃用和移除之间的间隔,符合项目在弃用后至少一年支持功能的政策。如果您是集群操作员,则本指南包含您在此版本中需要了解的实际情况。此外,您需要做些什么来确保您的集群不会倒塌!
王先森sec
2023/04/24
1.2K0
Kubernetes v1.20 重磅发布
美国时间 12 月 8 日,Kubernetes v1.20 正式发布,这是 2020 年的第三个新版本,也是最后一个版本。该版本包含 42 个增强功能:其中 11 个增强功能趋于稳定,15 个进入 Beta,16 个进入 Alpha。
kubernetes中文社区
2020/12/17
7690
Kubernetes v1.20 重磅发布
Kubernetes弃用Dockershim,转向Containerd:影响及如何应对
Kubernetes1.24版本发布时,正式宣布弃用Dockershim,转向Containerd作为默认的容器运行环境。Kubernetes以CRI(Container Runtime Interface)容器运行时接口制定接入准则,用户可以使用Containerd、CRI-O、CRI- Dockerd及其他容器运行时作为Kubernetes的容器引擎。
灵雀云
2023/12/26
5390
Kubernetes弃用Dockershim,转向Containerd:影响及如何应对
基于Kubernetes v1.24.0的集群搭建(一)
K8S 1.24作为一个很重要的版本更新,它为我们提供了很多重要功能。该版本涉及46项增强功能:其中14项已升级为稳定版,15项进入beta阶段,13项则刚刚进入alpha阶段。此外,另有2项功能被弃用、2项功能被删除。
AI.NET 极客圈
2022/11/11
3100
基于Kubernetes v1.24.0的集群搭建(一)
Kubernetes生态系统与演进路线
👆点击“博文视点Broadview”,获取更多书讯 Kubernetes 的快速演进大大推进了云计算技术的发展,伴随着云原生计算基金会CNCF的诞生、云原生开源项目的孵化,逐渐演化成一个完整的云原生技术生态系统。 本文就来介绍一下Kubernetes与CNCF的关系、Kubernetes演进路线和Kubernetes开发模式。 01 Kubernetes与CNCF 云原生计算的特点是使用开源软件技术栈,将应用程序以微服务的形式进行发布和部署,并动态编排这些微服务,优化资源使用率,帮助软件开发人员更快地构建
博文视点Broadview
2023/05/06
4210
Kubernetes生态系统与演进路线
Kubernetes 1.20:最优秀、美妙、酷的版本
问卷链接(https://www.wjx.cn/jq/97146486.aspx)
CNCF
2020/12/11
1.4K0
Kubernetes 1.20:最优秀、美妙、酷的版本
Kubernetes v1.19.0 正式发布!
终于,我们推出了Kubernetes 1.19,这是2020年的第二个发行版,并且迄今为止最长的发行周期持续了20周。它由33项增强功能组成。12个增强功能进入稳定版,18个增强功能进入测试版,13个增强功能进入alpha版。
YP小站
2020/08/28
8380
Kubernetes v1.19.0 正式发布!
Kubernetes 1.26 版本正式发布:改进 Windows 支持,加强网络安全和管理功能
作者 | 褚杏娟 近日,Kubernetes 1.26 正式发布。该版本总共包括 37 项增强功能:其中 11 项将升级为稳定版,10 项为毕业到 Beta,另外 16 项正在进入 Alpha 版,还有十二个功能已被弃用或删除。 Kubernetes 在企业中被广泛使用,这也让 Kubernetes 成为黑客的攻击目标。新版本中,Kubernetes 发布工件签名现已升级至 beta 版。此功能在 v1.24 版初次引入,是 Kubernetes 发布过程安全性方面的一大重要里程碑。新版本中,所有发布工件
深度学习与Python
2023/03/29
4990
Kubernetes 1.26 版本正式发布:改进 Windows 支持,加强网络安全和管理功能
好似一场马拉松:历时5月,Kubernetes1.19正式发布 !Ingress迎来GA
我们迎来了Kubernetes1.19,这是2020年发布的第二个版本,也是迄今为止最长的发布周期,总共持续了20周。它包括33个增强功能:12个增强功能达到稳定版,18个增强处在beta版,还有13个是alpha版。
灵雀云
2020/08/31
5980
好似一场马拉松:历时5月,Kubernetes1.19正式发布 !Ingress迎来GA
Kubernetes 1.24发布,支持网络策略状态、上下文日志记录和子资源
云原生计算基金会(CNCF)于 5 月发布了代号为 Stargazer 的 Kubernetes 1.24。该版本的新特性有网络策略状态、上下文日志记录和签名发布工件等,正式或稳定特性有 PodOverhead、CSI 卷扩展和 CSR 持续时间,Beta 特性有 OpenAPI v3、gRPC 探针、卷填充器等,弃用特性有 DynamicKubeletConfig 等。此外,1.24 版本移除了 dockershim。
深度学习与Python
2022/11/28
3770
技术干货|Docker和 Containerd 的区别
在Kubernets的生态中,有很多方便扩展的接口,包括CRI、CSI、CNI等,将这些接口抽象出来是为了提供开放、扩展和规范等能力。
用户5921339
2025/05/20
2080
技术干货|Docker和 Containerd 的区别
运维锅总详解Kubernetes之Kubelet
本文尝试从Kubelet的发展历史、实现原理、交互逻辑、伪代码实现及最佳实践5个方面对Kubelet进行详细阐述。希望对您有所帮助
锅总
2024/07/29
3830
运维锅总详解Kubernetes之Kubelet
Kubernetes 1.24 正式发布,这里是功能总览!
Kubernetes 1.24 的发布日期从 4 月 19 日 移至 5 月 3 日[1]。现已正式发布。
我的小碗汤
2023/03/19
1.2K0
Kubernetes 1.24 正式发布,这里是功能总览!
Kubernetes 1.29正式发布,包含49个增强功能
现在宣布 Kubernetes v1.29:Mandala 版本正式发布,这是 2023 年发布的最后一个版本!
公众号: 云原生生态圈
2024/01/23
1.1K0
Kubernetes 1.29正式发布,包含49个增强功能
刚刚 Kubernetes 1.25 正式发布,所有变化都在这儿了
此版本带来了 40 项增强功能,略少于Kubernetes 1.24 中的 46 项。在这 40 项增强功能中,13 项正在升级到稳定版,10 项是对现有功能的不断改进,15 项是全新的,2 项是已弃用的功能。
我的小碗汤
2023/03/19
1.7K0
刚刚 Kubernetes 1.25 正式发布,所有变化都在这儿了
17-Kubernetes进阶学习之集群升级迁移和维护实践
描述:Kubernetes 使用 Etcd 数据库实时存储集群中的数据,可以说 Etcd 是 Kubernetes 的核心组件,犹如人类的大脑。如果 Etcd 数据损坏将导致 Kubernetes 不可用,在生产环境中 Etcd 数据是一定要做好高可用与数据备份,这里介绍下如何备份与恢复 Etcd 数据。
全栈工程师修炼指南
2022/09/29
1.1K0
17-Kubernetes进阶学习之集群升级迁移和维护实践
Kubernetes v1.30正式发布!
我们很高兴地宣布发布 Kubernetes v1.30: Uwubernetes,这是迄今为止最可爱的版本!
用户1107783
2024/04/18
9850
Kubernetes v1.30正式发布!
K8s 终将废弃 docker,TKE 早已支持 containerd
李志宇,腾讯云后台开发工程师。负责腾讯云TKE集群节点和运行时相关的工作,包括 containerd、docker等容器运行时组件的定制开发和问题排查。 洪志国,腾讯云工程师,负责 TKE 产品容器运行时,K8s,Mesh 数据面等基础组件研发。 近日 K8s 官方称最早将在 1.23 版本弃用 docker 作为容器运行时,并在博客中强调可以使用如 containerd 等 CRI 运行时来代替 docker。 本文会做详细解读,并介绍 docker 与 containerd 的关系,以及为什么 con
腾讯云原生
2020/12/10
2.1K0
k8s 1.20发布
我们很高兴宣布Kubernetes 1.20的发布,这是2020年的第三版也是最终版!此版本包含42个增强功能:11个增强功能已逐步升级为稳定版,15个增强功能已转换为Beta版,16个增强功能已进入alpha版。
有点技术
2020/12/22
1.2K0
推荐阅读
相关推荐
Kubernetes 1.24:观星者
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档