论文标题:Irregular Multivariate Time Series Forecasting: A Transformable Patching Graph Neural Networks Approach
论文标题:N-BEATS N EURAL BASIS EXPANSION ANALYSIS FOR INTERPRETABLE TIME SERIES FORECASTING
论文标题:SparseTSF: Modeling Long-term Time Series Forecasting with 1k Parameters
论文标题:Efficient and Effective Time-Series Forecasting with Spiking Neural Networks
论文标题:SAMformer: Unlocking the Potential of Transformers in Time Series Forecasting with Sharpness-Aware Minimization and Channel-Wise Attention
KAN出来之后,我最关注的还是其在时间序列领域的应用,果不其然,立马看到两篇占坑(中性词)文章。这篇文章不是对论文的深度解读,只是提供一个信息渠道。吐槽一下,大家的占坑速度实在太快,这两篇文章算是先把KAN与时序结合的好标...
梳理了近期几篇时间序列大模型研究文章(后台回复:“论文合集”获取),时间序列大模型的研究正在迅速发展,并且在多个领域和应用中展现出巨大的潜力。随着技术的不断进步,预计未来会有更多创新的方法和应用出现,但我感觉目前可...
扩散模型(diffusion model)是一类生成模型,运用了物理热力学扩散思想,主要用于对复杂数据分布进行建模和采样。以图片生成举例简要介绍下扩散模型运作方法。给定目标分布q(x)中的一些观测数据x,生成模型的目标是学习一个生...
从Transformer架构提出以来,时间序列领域几乎绝大多数模型是在Transformer架构基础改进。但自注意力机制计算复杂过高,同时位置编码对时序信息表示不完全一直是问题。与之相比,线性模型有以下优势:...
我是从去年年底开始入门时间序列研究,但直到最近我读FITS这篇文章的代码时,才发现从去年12月25号就有人发现了数个时间序列Baseline的代码Bug。如果你已经知道这个Bug了,那可以忽略本文~...