Transformer已成为自然语言处理领域的主流架构,其在时间序列分析(尤其是长周期预测)中也展现出卓越的性能与效率。本文提出局部注意力机制(LAM),一种专为时间序列设计的高效注意力机制。该机制利用时间序列的连续性特征减少注意力分数计算量,并通过张量代数实现O(nlogn)的时间与内存复杂度,较传统注意力机制的O(n^2)显著优化。此外,针对长周期预测模型评估数据集的不足,本文提出一组新数据集。实验表明,搭载LAM的Transformer架构优于现有最先进模型(包括传统注意力机制),验证了该方法的有效性,并揭示了长序列时间序列预测的未来研究方向。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。