这个脑电设备32通道,大概1W的样子,今天到手来学习一下设计思路,后面研发的时候用得上。
论文标题:ShapeFormer: Shapelet Transformer for Multivariate Time Series Classificati...
我们看到的很多论文,大多把注意力集中到模型结构的改进上,比如:注意力机制、编码器、解码器设计和改进等。但是,却少有人关注到时间序列数据的embedding上。
从transformer出来后,感觉时序领域的研究就被其霸占,各类工作都是围绕其进行改进、升级。但Transformer提出已经七年了!继续卷Transform...
先前整理了4篇时间序列大模型的论文,ICML放榜之后,我重点关注了大模型相关的论文,再次梳理了谷歌、清华和CMU的3近期几篇时间序列大模型研究文章(后台回复:“...
这是时序可解释性论文汇总的第二篇,第一篇见这里(后台回复:“论文合集”可直接获取整理的文章)。深度学习的可解释性研究一直是热门,而时间序列的可解释性同样非常重要...
梳理了一些时间序列可解释性研究文章(后台回复:“论文合集”获取),深度学习的可解释性研究一直是热门,而时间序列的可解释性同样非常重要。这是因为时序模型被大量应用...
代码链接:https://github.com/ emadeldeen24/TSLANet.
论文标题:A DECODER - ONLY FOUNDATION MODEL FOR TIME - SERIES FORECASTING
论文标题:Irregular Multivariate Time Series Forecasting: A Transformable Patching Gr...
论文标题:N-BEATS N EURAL BASIS EXPANSION ANALYSIS FOR INTERPRETABLE TIME SERIES FORE...
论文标题:SparseTSF: Modeling Long-term Time Series Forecasting with 1k Parameters
论文标题:Efficient and Effective Time-Series Forecasting with Spiking Neural Network...
论文标题:SAMformer: Unlocking the Potential of Transformers in Time Series Forecasti...
KAN出来之后,我最关注的还是其在时间序列领域的应用,果不其然,立马看到两篇占坑(中性词)文章。这篇文章不是对论文的深度解读,只是提供一个信息渠道。吐槽一下,大...
梳理了近期几篇时间序列大模型研究文章(后台回复:“论文合集”获取),时间序列大模型的研究正在迅速发展,并且在多个领域和应用中展现出巨大的潜力。随着技术的不断进步...
扩散模型(diffusion model)是一类生成模型,运用了物理热力学扩散思想,主要用于对复杂数据分布进行建模和采样。以图片生成举例简要介绍下扩散模型运作方...
因此线性时序模型一直持续产出研究,其中2022年香港中文大学的一篇论文Are Transformers Effective for Time Series Fo...
这个错误最初在Informer(AAAI 2021 最佳论文)中被发现,是爱丁堡大学的Luke Nicholas Darlow发现。这个问题对时间序列预测领域的...
Patch TST发表于ICLR23,其优势在于保留了局部语义信息;更低的计算和内存使用量;模型可以关注更长的历史信息,Patch TST显著提高了时序预测的准...