在当今数字化快速发展的背景下,海量且复杂的数据中蕴含着丰富的时空信息。时间序列与时空数据的融合研究逐渐成为解决现实世界问题的核心手段。传统的时间序列分析方法主要聚焦于时间维度的变化趋势,却忽视了空间属性的影响,这使得其在处理如交通流量、气象变化等既具有时间动态性又存在空间关联性的现象时显得力不从心。
随着物联网和传感器技术的不断进步,获取高密度、多维度的时空数据已成为可能,为相关研究提供了坚实的数据基础。与此同时,机器学习尤其是深度学习算法的发展,为挖掘这些复杂数据中的潜在规律提供了强有力的工具。将时间与空间因素有机结合,不仅有助于更全面地理解数据本质,还能显著提升预测的准确性与稳定性,广泛服务于城市规划、灾害预警、市场趋势分析等多个关键领域。这一方向已受到学术界与工业界的共同关注,展现出广阔的应用前景。
基于此,我整理了2024至2025年间国际顶会中关于时间序列与时空数据分析的16篇前沿论文,内容涵盖最新模型架构、理论突破与实际应用,现公开分享,供有兴趣的研究者参考使用。
【论文1】Diffusion Transformer Captures Spatial-Temporal Dependencies: A Theory for Gaussian Process Data(ICLR2025)
关键词:扩散Transformer、时空依赖、高斯过程、分数函数近似、时序数据建模、注意力机制
1. 研究方法
该研究提出了一种名为“扩散Transformer”的理论框架,将分数函数建模为梯度下降过程的迭代输出,并通过Transformer结构对这一过程进行展开。利用自注意力机制计算时间嵌入之间的相关性,有效捕捉高斯过程中存在的时空依赖关系。结合相关性截断与衰减特性对模型进行优化,在包含128个时间步的高斯过程数据上进行了验证,结果表明该方法能够精确还原真实的时空依赖结构。样本复杂度随数据量增长呈现1/√n的缩放趋势,且在使用soft-max和ReLU激活函数的情况下均表现出良好适应性。
2. 论文创新点
- 首次构建了扩散Transformer用于捕捉时空依赖的理论体系,为动态影像、连续监测等场景下的时空建模提供了坚实的数学支持,弥补了传统模型难以刻画连续动态依赖的缺陷。
- 提出一种基于算法展开的分数函数近似方法,使Transformer能通过注意力机制实现时空维度的信息关联,契合时序数据“时间连续+空间关联”的双重特征。
- 揭示了时空依赖随距离衰减的模式对学习效率的影响机制,为长序列时空任务(如多帧CT图像建模)提供参数设计指导,降低长程依赖带来的计算压力。
- 实证验证多种激活函数下的Transformer结构均可高效建模时空依赖,增强了模型在不同应用场景(如高频监测或低频扫描)中的灵活性与适用性。
论文链接:https://openreview.net/forum?id=MbM1BqGpZu
【论文2】AutoSTF: Decoupled Neural Architecture Search for Cost-Effective Automated Spatio-Temporal Forecasting(KDD2025)
关键词:时空预测、神经架构搜索、解耦搜索空间、多粒度依赖建模、参数共享、表示压缩
1. 研究方法
本文提出了AutoSTF框架,旨在实现高效且低成本的自动化时空预测。该框架将原本混合的神经架构搜索空间解耦为独立的时间和空间两个子空间,通过引入表示压缩与参数共享机制显著减少计算开销。同时设计了多补丁迁移模块,用以提取时间序列中不同尺度的依赖关系,并扩展空间搜索空间以支持层级别细粒度的空间依赖建模。实验在8个真实时空数据集上完成,相比当前最优的自动化模型,推理速度最高提升达13.48倍,同时保持领先的预测精度。
2. 论文创新点
- 构建了解耦式的神经架构搜索框架,分别处理时间和空间依赖的搜索过程,避免传统联合搜索带来的指数级复杂度问题,更适合大规模时空预测任务。
- 引入多补丁迁移模块,通过对时序特征进行分段压缩,有效捕捉短期与长期并存的多粒度时间依赖,增强对动态变化模式的表达能力。
- 拓展空间搜索空间,集成固定、半自适应及全自适应邻接矩阵算子,允许每层独立选择最优连接方式,从而更精准地刻画复杂的地理或拓扑空间关系。
- 采用参数共享策略减少冗余参数数量,在保证空间依赖建模完整性的前提下,大幅提升神经架构搜索的整体效率。
论文链接:https://arxiv.org/abs/2409.16586


雷达卡


京公网安备 11010802022788号







