2023年11月论文:DANCE OF CHANNEL AND SEQUENCE(CSformer)(无源码)

发布时间:2024年01月11日

DANCE OF CHANNEL AND SEQUENCE:
AN EFFICIENT ATTENTION-BASED APPROACH FOR
MULTIVARIATE TIME SERIES FORECASTING

推荐阅读指数: ★★
大意了,没仔细看实验结果和模型图,精度了一篇有点不太行的文章,实验结果只有一张表,模型图又很简单,且机构也很一般。

摘要

摘要要

通道独立性导致信息退化,文章提出CSformer来应对这一问题,CSformer中精心设计了两阶段的自注意力机制,该机制可以分别提取特定序列信息和通道信息,同时共享参数,还引入了序列适配器和通道适配器,实验结果领先

其创新点就是同时结合了序列和通道注意力,下图为对比

在这里插入图片描述

详细摘要

在最近的发展中,用于多变量时间序列分析的预测模型通过采用普遍的通道独立性原则展现出令人赞赏的性能。然而,必须承认通道之间的复杂相互作用根本上影响了多变量预测的结果。(针对通道独立性)

因此,尽管通道独立性的概念在一定程度上提供了实用性,但随着情况的发展,这变得越来越不切实际,导致信息的退化。为了应对这一紧迫问题,我们提出了CSformer,这是一个创新的框架,其特点是精心设计的两阶段自注意机制

这个机制能够分别提取特定序列信息和特定通道信息,同时共享参数以促进序列和通道之间的协同和相互强化。同时,我们引入了序列适配器和通道适配器,确保模型能够识别跨各个维度的显著特征。这一增强显著提升了多变量时间序列数据特征提取的能力,促进了对可用信息的更全面利用。
我们在真实世界的多个数据集上进行了实验,证明了模型的鲁棒性和先进性,保持了基于transform的模型的领先地位。

贡献

propose CSformer
CSformer achieves state-of-the-art performance
conducted an extensive array of ablation experiments

(给人感觉水了吧唧的)

模型介绍

(这图有点lowlow的)
在这里插入图片描述

过程

  1. 可逆的归一化
    在这里插入图片描述

  2. 维度增广
    在这里插入图片描述

  3. 两阶段多头注意力机制( two-stage Multi-head Self-Attention)

差别就是交换了N和L维度
在这里插入图片描述

实验

只给出了对比实验的结果
包括iTransformer和CSformer
在这里插入图片描述

评价

这文章缺东西呀,提到的两阶段的参数共享机制没有讲,贡献里面提到的消融实验也没有讲,哈哈哈哈哈血亏

文章来源:https://blog.csdn.net/m0_51312071/article/details/135515900
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。