自监督异常检测的端到端数据增强超参数调整
本文通过对三种不同模型以及 420 种不同任务的广泛实验,认真研究了数据增强在异常检测中的作用,得出自监督作为另一个模型超参数,需要根据真实异常特征仔细选择数据增强方式的结论,并且在缺乏对应的情况下,自监督甚至会降低准确性,从而为未来的研究提供了新的方向
Aug, 2022
自我监督学习在无监督异常检测中起到重要作用,对 SSL 策略的选择、超参数的调整、预处理任务和增强函数的设计以及基于密度估计的预训练模型的利用提出了新的发展和挑战。
Aug, 2023
研究表明,超参数和数据增强策略的选择对 Self-Supervised Learning(SSL)方法的影响很大,因此可以通过超参数优化和引入新的数据增强算法 GroupAugment 来提高 SSL 的性能和准确率。
Jul, 2022
本文提出了一种名为 DSV 的无监督验证损失方法,该方法通过近似测试数据的不一致性和可分离性来捕捉增强函数与异常机制之间的对齐度,并能够在 21 个真实世界任务中比多种基线算法表现更好,以选择具有有效增强超参数的高性能异常检测模型。
Jul, 2023
自我监督学习(SSL)作为应对深度神经网络(DNNs)中有限标记数据挑战的一种有前途的解决方案,具有可扩展性潜力。本研究全面探索了 SSL 在各种数据增强中的行为,揭示了它们在塑造 SSL 模型性能和学习机制方面的关键作用。利用这些见解,我们提出了一种集成先验知识的新学习方法,旨在减少对大量数据增强的需求,从而增强学习表示的有效性。尤其值得注意的是,我们的发现表明,富含先验知识的 SSL 模型表现出较小的纹理偏差,对快捷方式和增强技术的依赖减弱,并且对自然和对抗性破坏具有改进的鲁棒性。这些发现不仅为 SSL 研究指明了新的方向,而且为提高 DNN 性能、减轻对大量数据增强的要求,从而增强可扩展性和实际问题解决能力方面铺平了道路。
Apr, 2024
本文介绍了一种基于自主学习算法的预训练深度神经网络的方法,通过演化搜索方法在预处理任务的数据增益管道中编码数据增益算子的不同组合,优化所谓的‘拟预处理任务’,并测量了增强运算器对几个最先进的自监督学习算法性能的影响。研究结果表明,优化规则采用的数据增强器算子组合对自监督学习算法整体性能具有显着影响。
Mar, 2023
我们提出了一种利用可学习数据增强的时间序列异常检测(LATAD)技术,该技术通过对比学习从时间序列数据中提取判别特征。LATAD 在潜在特征相似性的基础上测量异常得分,并在多个基准数据集上表现出与最先进的异常检测评估相当或更好的性能,并提供了一种基于梯度的诊断技术来帮助确定根本原因。
Jun, 2024
使用自我监督学习方法中的特征交换(FeatEx)提出了一种简单而有效的异常声音检测系统,其性能在 DCASE2023 ASD 数据集上明显优于其他已发表结果。
Dec, 2023