学习鲁棒和一致的时间序列表示:基于扩张 Inception 的方法
我们提出了一种基于内省的时间序列分析的新架构概念,其中关键是自监督预训练的时间序列表示模型(TSRM),可以在自动化和资源高效的方式下进行定制和微调,以实现特定任务,如预测和插补。我们的架构通过灵活和分层的表示学习过程对抗缺失数据和异常值,能够捕捉和学习给定时间序列类别(如心率数据)的结构、语义和关键模式的本地和全局特征。与现有方法相比,我们的架构提高了插补和预测误差,分别高达 90.34%和 71.54%,同时减少了可训练参数高达 92.43%。
May, 2024
本文提出了一种新的时间序列表示学习方法,通过自监督任务的上下文、时间和转换一致性,结合不确定性加权方法,实现了多任务学习和跨领域传递学习,进而在时间序列分类、预测和异常检测等下游任务中取得了更好表现。
Mar, 2023
提出了一种新的基于对比损失的无监督表示学习框架,并通过利用数据增广方案生成新样本来优化损失函数,实现混合样本的预测任务,以利用软目标进行学习。实验结果表明本方法在单变量和多变量时间序列上的表现优于其他表示学习方法,并展示了它对于临床时间序列的传递学习的好处。
Mar, 2022
时间序列上的自我监督学习能够使得类似于自然语言处理和计算机视觉领域中最近释放的潜力发挥出来。通过使用基于 data2vec 自蒸馏框架的一个概念上简单而强大的非对比度方法,我们的方法展示了在分类和预测等下游任务上与 UCR、UEA 和 ETT 以及 Electricity 数据集上的最先进的自我监督学习方法相比的竞争力。
Nov, 2023
通过一种无监督方法,提出了在长度和标签稀疏性方面都很具有可扩展性的编码器,通过时间负采样的三元损失组合将其与基于因果膨胀卷积的编码器结合,用于生成变长时间序列的通用表示,表现出了良好的质量、可转移性和实用性。
Jan, 2019
该研究提出了一种使用隐式神经表示法的时间序列建模方法,能够有效捕捉时间序列的连续性,并提供对处理缺失数据、不规则采样或多个传感器的不对齐观测等常见问题的自然解决方案,并通过实验表明,在预测和填充任务中取得了最先进的性能,能够灵活处理各种具有挑战性的场景。
Jun, 2023
本文利用隐式神经表示技术分析了时间序列数据的表示问题,并提出了一种基于傅里叶变换的损失函数来指导网络训练的超网络结构,用于生成时间序列数据。我们证明了这个方法可以用于时间序列数据的扩充与生成,并且在此领域达到了最先进的方法的水平。
Aug, 2022
该研究探讨了使用时间序列编码器学习适用于其未经训练的数据集类型的表示,性能优越,适应性强,可用于处理标记稀疏或未标记的时间序列数据,并通过卷积神经网络和注意机制等多种方法使其性能更加优异。
May, 2018
给定时间序列数据,本论文展示了如何利用对比学习获得紧凑的、闭合形式的解来回答 “未来会发生什么?” 和 “我们是如何到达这一点的?” 这些概率推断问题在高维观测时很具有挑战性。我们通过对时间序列数据应用一种变体的对比学习方法来实现这些问题的解答。我们的理论验证了这种对比学习所学习到的表示遵循高斯 - 马尔科夫链。
Mar, 2024
该研究提出了一种从分布角度解决时间序列分类问题的新方法,称为 DIVERSIFY,该方法采用对抗性训练获得最坏情况分布并匹配子域的分布来学习泛化表示,实验结果表明该方法在不同情境中的 7 个数据集上具有显著优势,可以有效地表征者潜在分布。
Sep, 2022