Transformers in Time Series: A Survey¶
阅读时间 | 2023-11-06 |
---|---|
论文主要内容¶
-
本文总结了Transformer架构在时间序列数据集上的三个主要应用:预测、异常检测、分类上的进展。
-
文章开头作者介绍了深度学习方法在这三个任务上的几个综述,强调本文侧重点在于介绍Transformer的应用。
-
文章从两个方面总结Transformer架构在时序数据上的应用:
-
从模型层面:在模型层面上,作者回顾了基于Transformer架构在时序数据上的应用,目前学界所作的更改及其效果。其中模型更改可以分为从模块层面和从架构层面,绝大部分工作都是从模块层面对原始Transformer架构进行改进。模块层面的改进又包括几个方面,具体包括:
- (1)位置编码的改进,原始Transformer架构的位置编码是基于绝对位置的编码,改进包括基于相对位置的编码,可学习编码以及时间戳编码;
- (2)自注意力模块的改进:对自注意力模块的改进主要是为了降低其时间和空间计算复杂度。
从架构层面的改进主要引入可以表征不同时间尺度的信息的能力。
-
从应用层面:在应用层面上,作者回顾了Transformer在时序预测(包括时间序列预测、时空预测、事件预测)、异常检测和分类上的改进,具体包括:
- 在预测任务上:
- 时间序列预测:论述了包括模块层面和架构层面的改进;
- 时空预测:主要介绍了Transformer和GNN结合的相关工作;
- 事件预测:主要介绍了Transformer和时间点过程模型结合的相关工作;
- 在异常检测任务上:主要介绍了将Transformer架构和对抗模型(VAE和GAN)结合的相关工作;
- 在分类任务上:主要介绍了利用Transformer架构以及Transformer预训练进行分类的相关工作;
-
同时,作者利用ETTm2数据集分析了不同Transformer架构在预测任务上的几个影响因素:
- 序列长度的影响:在预测长度不变的情况下,当增大序列长度时,几个Transformer架构的表现反而更差了;
- Transformer块层数的影响:在此数据集的情况下,最佳的层数是比较小的层数(3-6),更大的层数会引起结果变差;
- 引入季节-趋势分解的影响:即使只引入简单的移动平均季节-趋势分解,预测表现也显著增强。
-
最后,作者总结了几个Transformer架构在时序数据集上的未来研究方向:
- 推导偏差(inductive biases)的问题;
- 结合GNN的Transformer;
- 预训练的Transformer;
- 架构层面改进的Transformer;
- Transformer的Neural architecture search(NAS)问题。
论文亮点¶
- 系统比较了不同Transformer改进模型在三类时序任务上的异同。