提出了一种新的基于对比损失的无监督表示学习框架,并通过利用数据增广方案生成新样本来优化损失函数,实现混合样本的预测任务,以利用软目标进行学习。实验结果表明本方法在单变量和多变量时间序列上的表现优于其他表示学习方法,并展示了它对于临床时间序列的传递学习的好处。
Mar, 2022
时间序列上的自我监督学习能够使得类似于自然语言处理和计算机视觉领域中最近释放的潜力发挥出来。通过使用基于 data2vec 自蒸馏框架的一个概念上简单而强大的非对比度方法,我们的方法展示了在分类和预测等下游任务上与 UCR、UEA 和 ETT 以及 Electricity 数据集上的最先进的自我监督学习方法相比的竞争力。
Nov, 2023
本文提出了一种通过时间和语境对比(TS-TCC)的无监督时间序列表示学习框架,该框架可从未标记数据中学习时间序列表示,其中包括弱和强扩充转换的两个不同但相关的视图,并提出了一种新的时间对比模块和一个上下文对比模块来学习稳健的时间表示和判别性表示。
Jun, 2021
学习能够适用于各种不同类型下游任务的通用时间序列表示是具有挑战性但有价值的,本研究提出了一种名为 TimesURL 的自监督框架,利用增强方法、负样本构建和损失设计来学习高质量的通用表示,并在 6 个不同的下游任务中达到最先进的性能。
Dec, 2023
我们提出了一种称为 SCOTT 的简单而新颖的融合模型,用于学习标记时间序列数据的表示,通过合适的数据增强方法和 Transformer 与 Temporal Convolutional Networks 的组合,实现了全局和局部特征的高效学习,同时证明了 SCOTT 在时间序列分类和在线变点检测问题上的优越表现。
Mar, 2024
利用图结构和少标记数据执行半监督一致性分类,从而增强少数类的代表性,解决时间序列对比学习中的假阴性和类别不平衡问题。
本文提出了一种理论框架以分析对比学习的算法,并引入潜在类别假设,该框架使我们能够在平均分类任务上证明学习表示的性能。同时,该文还表明,学习表示可以降低下游任务的(标记)样本复杂度。
Feb, 2019
自我监督学习 (SSL) 是一种有效的方法,可以从大规模无标签数据中学习表示,对时间序列分析显示出有希望的结果。本文从对比和生成两个主要流派对比研究了时间序列中的自我监督表示学习。我们首先介绍了对比和生成 SSL 的基本框架,并讨论了如何获得指导模型优化的监督信号。然后,我们分别为每种类型实现了经典算法 (SimCLR vs. MAE),并在公平的环境中进行了比较分析。我们的结果提供了每种方法的优势和劣势的见解,并为选择合适的 SSL 方法提供了实用的建议。我们还讨论了我们研究结果对更广泛的表示学习领域的影响,并提出了未来的研究方向。所有的代码和数据都在 https://github.com/DL4mHealth/SSL_Comparison 发布。
本文提出了一种新的自监督学习框架,将对比学习与神经过程相结合,用于时间序列预测,实现数据的增强和避免手动设计数据增广,利用我们的方法训练的 ResNet 和线性分类器在工业、医疗和音频数据集上表现良好,精度提高 10%以上。此外,我们证明了我们的自监督表示在潜空间中更有效,改善了多个聚类指标,同时微调 10%的标签可达到与全监督学习相竞争的结果。
Oct, 2021
本研究对自监督学习中采用对比学习方法的常见预训练任务及各种方法进行了广泛的回顾,并通过图像分类,目标检测和动作识别等多个下游任务的性能比较,探讨了当前方法的限制以及未来发展方向。
Oct, 2020