在科技的浩瀚星空中,机器学习犹如一颗璀璨的新星,以其独特的魅力和无限潜力,引领着我们向智能的深处探索。今天,我们将一同踏上这场深度之旅,不仅解析机器学习的底层逻辑,还将探讨其前沿技术,并展望其未来的发展方向。...
我们看到的很多论文,大多把注意力集中到模型结构的改进上,比如:注意力机制、编码器、解码器设计和改进等。但是,却少有人关注到时间序列数据的embedding上。...
论文标题:MOMENT: A Family of Open Time-series Foundation Models
从transformer出来后,感觉时序领域的研究就被其霸占,各类工作都是围绕其进行改进、升级。但Transformer提出已经七年了!继续卷Transformer感觉很难,而且大家也“审美”疲劳了。建议可以了解一下时序卷积相关研究,今年ICLR...
GitHub链接:ViTime: A Visual Intelligence-Based Foundation Model for Time Series Forecasting
先前整理了4篇时间序列大模型的论文,ICML放榜之后,我重点关注了大模型相关的论文,再次梳理了谷歌、清华和CMU的3近期几篇时间序列大模型研究文章(后台回复:“论文合集”获取,共七篇),时间序列大模型的研究正在迅速发展,并且在...
论文标题:Unified Training of Universal Time Series Forecasting Transformers
GitHub链接:https://github.com/microsoft/ProbTS
这是时序可解释性论文汇总的第二篇,第一篇见这里(后台回复:“论文合集”可直接获取整理的文章)。深度学习的可解释性研究一直是热门,而时间序列的可解释性同样非常重要。这是因为时序模型被大量应用到特定领域:金融、医疗、...
梳理了一些时间序列可解释性研究文章(后台回复:“论文合集”获取),深度学习的可解释性研究一直是热门,而时间序列的可解释性同样非常重要。这是因为时序模型被大量应用到特定领域:金融、医疗、交通等,这些应用场景对模型的可...