从transformer出来后,感觉时序领域的研究就被其霸占,各类工作都是围绕其进行改进、升级。但Transformer提出已经七年了!继续卷Transformer感觉很难,而且大家也“审美”疲劳了。建议可以了解一下时序卷积相关研究,今年ICLR...
GitHub链接:ViTime: A Visual Intelligence-Based Foundation Model for Time Series Forecasting
先前整理了4篇时间序列大模型的论文,ICML放榜之后,我重点关注了大模型相关的论文,再次梳理了谷歌、清华和CMU的3近期几篇时间序列大模型研究文章(后台回复:“论文合集”获取,共七篇),时间序列大模型的研究正在迅速发展,并且在...
论文标题:Unified Training of Universal Time Series Forecasting Transformers
GitHub链接:https://github.com/microsoft/ProbTS
这是时序可解释性论文汇总的第二篇,第一篇见这里(后台回复:“论文合集”可直接获取整理的文章)。深度学习的可解释性研究一直是热门,而时间序列的可解释性同样非常重要。这是因为时序模型被大量应用到特定领域:金融、医疗、...
梳理了一些时间序列可解释性研究文章(后台回复:“论文合集”获取),深度学习的可解释性研究一直是热门,而时间序列的可解释性同样非常重要。这是因为时序模型被大量应用到特定领域:金融、医疗、交通等,这些应用场景对模型的可...
代码链接:https://github.com/ emadeldeen24/TSLANet.
论文标题:A DECODER - ONLY FOUNDATION MODEL FOR TIME - SERIES FORECASTING
论文标题:SparseTSF: Modeling Long-term Time Series Forecasting with 1k Parameters