本文提出了一种基于有限状态自动机的序列分类器,能够支持更早的分类并具有解释性和强大的实证表现。它具有可比较于 LSTM 的测试性能并具有可解释性的优点。
Oct, 2020
该论文提出了一种利用机器学习和数据挖掘技术自动学习不变规则的新框架,可以提供明确的异常检测结果解释并在实际应用决策中发挥重要作用。实验评估表明,该方法在多个应用领域的公共基准数据集上的性能优于先前的异常检测模型。
Nov, 2022
DeepAID 是一个用于解释无监督深度学习模型在安全领域异常检测系统中的通用框架,提供了一种新颖的解释方法,可以满足安全领域的特定要求,并提供了模型扩展来解决特定的问题。实验证明 DeepAID 可以为无监督深度学习模型提供高质量解释,同时有助于降低误报率。
Sep, 2021
本文研究了 Automaton 模型的可解释性问题,通过修改状态合并方法来学习变量的有限状态自动机,提出了关键特性的概念,进而应用于各类监督和无监督分类、聚类等涉及到顺序数据的问题。
Nov, 2016
本研究提出了一种基于半监督学习和主动学习的异常检测算法,能够在数据标记要求较高的情况下,大大减少数据标记量,提高检测精度,适用于网络入侵检测等领域。
Jan, 2014
利用自监督学习针对文本语料库制定预文本任务的方法,根据最新研究成果,大幅提高了半监督和无监督异常检测的效果,并证明了自监督异常检测在自然语言处理领域中的潜力。
Dec, 2023
文中提出了一种可以理解的概率异常检测器,可以通过高级概念描述其响应的原因,并且是首个将对象交互考虑在内并提供异常解释的任务。
Jun, 2021
本文提出了一种基于判别式学习的异常检测框架,其独立于时间顺序和无监督,无需额外的训练序列,并且在移除了标准数据集中的训练序列后,仍能取得最先进的结果。
Sep, 2016
本研究中,我们利用带有 attention 机制的 RNN 语言模型来进行深度学习方法的可解释性应用于计算机系统和日志数据的异常检测,实现了卓越的性能和可解释性。
Mar, 2018
该论文提出了一个基于深度强化学习的方法来解决在只有有限的异常样本和大量无标注数据集的情况下进行异常检测的问题,该方法在自动交互式模拟环境中学习已知异常,并通过探索从而将学习到的异常扩展到未知异常,最终取得了比五种已有方法更好的实验效果。
Sep, 2020