论文标题:Efficient and Effective Time-Series Forecasting with Spiking Neural Networks
论文标题:SAMformer: Unlocking the Potential of Transformers in Time Series Forecasting with Sharpness-Aware Minimization and Channel-Wise Attention
KAN出来之后,我最关注的还是其在时间序列领域的应用,果不其然,立马看到两篇占坑(中性词)文章。这篇文章不是对论文的深度解读,只是提供一个信息渠道。吐槽一下,大家的占坑速度实在太快,这两篇文章算是先把KAN与时序结合的好标...
论文标题:FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting
论文标题:iCROSSFORMER : TRANSFORMER UTILIZING CROSS DIMENSION DEPENDENCY FOR MULTIVARIATE TIME SERIES FORECASTING
这篇文章的思路就是:通过傅立叶变化,把时序数据自适应切分为最佳的、不同尺度的patch,然后设计patch内和patch间的注意力机制,进行下游任务。思路非常清晰简洁。...
本文介绍一篇由清华大学软件学院机器学习组在时间序列预测方向的最新工作,该论文已被NeulPS 2023收录。
近期,时间序列预测领域的首个大模型 TimeGPT 引起业界热议,大模型+时间序列这个新方向也更值得探索研究。
研究者认为,尽管深度学习在其他领域取得了成功,但其在时间序列分析中的有效性仍然受到争议。他们强调了由于缺乏标准化大规模数据集,在评估深度学习模型进行时间序列预测时所面临的挑战。...
Transformer 模型在自然语言处理和计算机视觉领域取得了巨大的成功,并成为了基础模型。然而,最近一些研究开始质疑基于Transformer的时间序列预测模型的有效性。这些模型通常将同一时间戳的多个变量嵌入到不可区分的通...