最新 最热

【机器学习】---神经架构搜索(NAS)

随着深度学习的成功应用,神经网络架构的设计变得越来越复杂。模型的性能不仅依赖于数据和训练方法,还依赖于网络架构本身。然而,手工设计一个适用于不同任务的高效架构需要大量的领域知识和实验。这时,**神经架构搜索(Neur...

2024-09-23
0

【机器学习】--- 序列建模与变分自编码器(VAE)

在机器学习领域,序列建模与变分自编码器(Variational Autoencoder, VAE) 是两个至关重要的技术,它们在处理时间依赖性数据与复杂数据生成任务中都发挥着关键作用。序列建模通常用于自然语言处理、语音识别等需要保持顺序...

2024-09-23
0

分层架构

分层有什么好处: 分层设计简化了系统设计,使得团队成员可以专注于特定层次的开发,提高了代码的复用性和系统的横向扩展能力,尤其适用于复杂业务和高并发系统设计。...

2024-09-19
0

ICML24|通用时间序列预测大模型思路

论文标题:Unified Training of Universal Time Series Forecasting Transformers

2024-09-18
0

时间序列关于可解释性值得关注的论文汇总-第2篇

这是时序可解释性论文汇总的第二篇,第一篇见这里(后台回复:“论文合集”可直接获取整理的文章)。深度学习的可解释性研究一直是热门,而时间序列的可解释性同样非常重要。这是因为时序模型被大量应用到特定领域:金融、医疗、...

2024-09-18
0

时序论文23|ICML24谷歌开源零样本时序大模型TimesFM

论文标题:A DECODER - ONLY FOUNDATION MODEL FOR TIME - SERIES FORECASTING

2024-09-18
0

时序论文20|ICLR20 可解释时间序列预测N-BEATS

论文标题:N-BEATS N EURAL BASIS EXPANSION ANALYSIS FOR INTERPRETABLE TIME SERIES FORECASTING

2024-09-18
0

近期值得关注的3个线性时序模型及其未来发展综述

从Transformer架构提出以来,时间序列领域几乎绝大多数模型是在Transformer架构基础改进。但自注意力机制计算复杂过高,同时位置编码对时序信息表示不完全一直是问题。与之相比,线性模型有以下优势:...

2024-09-18
0

时序必读论文15|TimeXer:通过外部变量增强Transformer在时间序列预测中的能力

论文标题:TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables

2024-09-18
0

时序必读论文12|ICML22 FEDformer基于周期分解的长时序预测transformer架构

论文标题:FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting

2024-09-18
0