学习用于随机基于距离的异常检测的超高维数据表示
本文提出了一种名为BORE的方法,将非监督得分函数用于监督学习框架中的特征,以解决在大数据集中检测少量异常值的问题,并在12个真实世界数据集上展示了其优越性。
Jul, 2015
提出了一种新的半监督集成算法 XGBOD,它结合了监督和无监督机器学习方法的优势,利用多个无监督异常值挖掘算法从底层数据中提取有用的表示形式,并在增强的特征空间上使用嵌入式监督分类器的预测能力,在七个异常值数据集中展现出优于竞争个体检测器、完整集成和两种现有表示学习算法的性能。
Dec, 2019
提出一种名为SUOD的加速框架,该框架由三个模块组成:随机投影模块、平衡并行调度模块和伪监督逼近模块,旨在缩短训练和预测无监督检测模型的时间。实验证明,SUOD在处理高维大型数据集时表现出良好的效果。
Feb, 2020
提出了一种仅基于未标记数据进行自监督表征学习的离群检测器(SSD),其使用Mahalanobis距离在特征空间中进行检测,并通过few-shot OOD检测和有监督训练等两个扩展实现了进一步的改进及最先进性能。
Mar, 2021
本文探讨了使用单个预训练网络作为通用特征提取器,在异常检测任务中取代训练不同表示器的可能性,并在实验中证明了使用领域内数据学习表示可能不是异常检测的必要步骤。
May, 2021
研究了利用特征空间中异常值与正常值的距离进行异常检测,提出了一种名为MCOD的框架,结合记忆模块和对比学习模块。实验证明,该方法在四个基准数据集上表现良好,优于其他九种最先进的方法。
Jul, 2021
本文通过大规模分析深度异常检测方法的超参数敏感性,设计了一个鲁棒性可扩展深度超集成模型 ROBOD 并进行了广泛的实验验证,表明 ROBOD 在选择模型和调整超参数的问题上取得了良好的表现,同时训练成本较低。
Jun, 2022
我们提出了一种非参数异常检测方法,该方法完全考虑了数据集中的局部内在维度变化。通过使用局部内在维度估计值的局部估计以理论上合理的方式,我们的维度感知异常检测方法DAO被推导为涉及查询点和随机选择的近邻之间的渐近本地期望密度比的估计器。通过对800多个合成和真实数据集的全面实验,我们表明DAO明显优于三个流行且重要的基准异常检测方法:局部异常因子(LOF),简化LOF和kNN。
Jan, 2024
研究旨在研究异常值对训练阶段的影响,并提出了一种名为Loss Entropy的零标签熵度量来推断训练的最佳停止点,然后基于此开发了一种自动化的早停算法EntropyStop,该算法通过在最大模型检测能力时停止训练来提升AutoEncoder(AE)的性能。
May, 2024
本研究针对异常值检测中的有效性问题,提出了一种基于内点记忆效应的创新方法。通过增加小批量训练数据的尺寸和使用自适应阈值设计截断损失函数,研究证实了该方法在低计算成本的情况下,相较于其他方法在异常值识别上达到了最先进的性能。此外,该方法与隐私保护算法的结合也展现了良好的鲁棒性。
Aug, 2024