本文提出一种方法,在深度神经网络中增加一个小的 “检测器” 子网络,用于区分含有敌对扰动的假数据和不包含敌对扰动的真数据的二元分类任务,并证明其能够有效检测和对抗敌对扰动攻击。
Feb, 2017
本文提出了一种对抗框架,由 Adversarial Distorter 和 Autoencoder 两个部分组成,利用编码器的隐层特征空间中的扰动提高异常检测中对特征的语义表示,实现了对图像和视频数据集上的异常检测的最新性能的提升。
Jul, 2022
这篇论文提出了一种利用简单学习过程训练轻量级卷积神经网络的方法,将异常检测问题视为监督回归问题,并使用两个可分离连续值分布来标记正常和异常的数据,通过图像增强技术创造出一个独特的异常样本集,并在图像和视频数据集的异常检测实验中展现了该方法的卓越性能。
减小理论假设与实际训练数据之间的差距,并提出一个学习框架来改进正常性表示,通过识别样本的正常性,并在训练过程中迭代更新样本的重要性权重。还提出了终止条件,受到异常检测目标的启发。通过在多个受污染数据集上进行实验证明,该框架提高了三种典型异常检测方法的鲁棒性。
Sep, 2023
本研究探讨异常检测在图像领域的深度学习方法,通过在 ImageNet 数据集上与现有深度学习算法和少量随机自然图像进行比较,发现多尺度图像数据的结构特点可以提高异常样本的识别效果。
May, 2020
本研究提出了一种基于半监督学习和主动学习的异常检测算法,能够在数据标记要求较高的情况下,大大减少数据标记量,提高检测精度,适用于网络入侵检测等领域。
Jan, 2014
本文提出了一种新颖的单类学习方法,称为校准的单类分类,用于解决训练数据中未知异常数据的影响并提高数据正常行为的建模,实现对时序异常数据的监控和警报。经过对六个真实世界数据集的广泛实验,表明该模型显著优于十二个现有的竞争对手,并获得 6%-31%的 F1 分数提高。
本研究提出一种在未标记异常情况下训练异常检测器的策略,通过联合推断二进制标签(正常 vs. 异常)并更新模型参数来使用两个损失的组合,表现出比基准测试更显著的改进。
Feb, 2022
通过学习区分自然数据分布与对抗性噪声分布的覆盖关系,我们提出了扰动伪造方法,通过噪声分布扰动、稀疏掩模生成和伪对抗性数据生成来训练一个对所有类型的对抗性攻击具有强大泛化能力的检测器,同时不依赖任何特定模型。实验证明我们的方法具有出色的泛化能力。
May, 2024
使用无监督的数据改进框架,我们比较了训练过程中可能存在异常样本的情况下,对于异常检测 (Anomaly Detection) 任务,利用机器学习模型进行异常检测的性能,并将其与使用仅含正常样本的理想训练数据进行了比较,在多元时间序列数据的公共数据集上展示了该方法的优越性。
Aug, 2023