
在深度学习视觉建模领域,如何既实现高效的全局语义交互,又能精准保留图像中的高频细节(如边缘和纹理),一直是一个关键难题。传统的卷积神经网络(CNN)依赖局部感受野,难以建模长程依赖;而视觉Transformer(ViT)虽然通过自注意力实现了全局交互,但其二次复杂度限制了在高分辨率图像上的应用,且缺乏对空间频率传播的显式建模。更重要的是,多数基于物理启发的模型(如热传导方法)倾向于过度平滑高频信号,导致细节丢失。
那么,是否存在一种既能保持全局语义连贯性,又能避免高频信息被过度过滤的物理建模方式?
最近,北京大学和清华大学研究团队提出了一种全新的思路:将视觉特征传播建模为波动方程中的阻尼振荡过程,从而在频率与时间解耦的框架下,实现高效且细节保留的全局建模。
传统基于热传导的方法在频域中相当于一个强低通滤波器,高频成分会随时间迅速衰减,导致特征平滑、细节模糊。而波动方程描述的是一种振荡传播机制:不同频率的成分在传播过程中以阻尼振荡的形式共存,低频决定整体结构,高频保留局部细节,且衰减与频率无关。
将特征图视为空间信号,将其演化建模为一个二维阻尼波动方程:

其中 u 表示语义场,v 为传播速度,α 为阻尼系数。通过对该方程在频域中求解,得到了一个闭式解,实现了频率与时间的解耦:阻尼项

对所有频率成分一致衰减,而振荡项

和

则保留了频率特性。

基于上述理论,研究者提出了 Wave Propagation Operator(WPO),这是一个轻量级模块,用于在频域中模拟波动传播过程。其计算过程如下:
整个过程复杂度仅为

,远低于自注意力的

,且保留了全局交互能力与高频细节。

基于WPO,研究者构建了一系列WaveFormer模型(Tiny/Small/Base),可作为标准ViT或CNN的直接替代。模型采用分层设计,每个阶段包含多个Wave Propagation Layer,结合深度卷积与前馈网络,实现多尺度特征提取。

与热传导相比,波动传播具有以下理论优势:
那么,这些理论优势是否转化为了实际性能的提升?实验给出了肯定的答案:



这些实验结果一致表明,波动传播机制不仅是一种理论上的优雅设计,更在实践中带来了精度、效率与细节保真度的全面优势。
WaveFormer的提出,不仅为视觉表示学习提供了一种高效、可解释的建模范式,也展示了物理方程与深度学习结合的潜力。通过将波动方程引入视觉传播过程,研究者成功实现了频率与时间的解耦,在保持全局语义的同时,精准保留了图像的高频细节。
这一工作也为未来视觉骨干网络的设计提供了新方向:如何将更多物理机制(如波动、扩散、对流等)融入深度学习架构,以带来更强大的归纳偏置与更高效的计算范式。
论文链接:https://arxiv.org/abs/2601.08602 代码开源:https://github.com/ZishanShu/WaveFormer
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。