用于可解释系统日志异常检测的循环神经网络注意力机制
该研究提出了一种基于注意力机制的深度神经网络模型解释方法,通过可视化生成的热图分析分类准确性和注意力之间的关系,并证明了使用改进注意力方法可以更好的展示分类器的解释。
Jan, 2019
采用一种基于循环神经网络(RNN)的深度注意力模型,学习序列式文章的不同隐藏表现以识别流言,并通过软注意力机制来提纯相关文章的相关部分,实验证明其能够更快、更准确地检测和辨别流言。
Apr, 2017
介绍了一种迭代递归注意力模型,通过重用以前计算的查询结果来构建输入数据的递增表示,以便在情感分类数据集上训练,并演示其在易于解释的方式下识别和组合输入的不同方面的能力,同时获得接近最先进性能。
Aug, 2018
本研究提出了一种可解释的方法,能够可视化神经网络中的内在机制和其对输出的影响,从而提高了深度神经网络的可解释性和决策过程,研究的主要贡献是提出了一种数据集中心的算法,适用于多个领域的深度神经网络结构。
Jun, 2017
该论文提出了一种新颖的深度生成模型,采用变分自动编码器架构,利用卷积编码器和解码器从空间和时间维度提取特征,结合注意力机制增强相关特征的表示,改进异常检测准确性,并在安全水处理测试平台的六个阶段进行了全面的实验分析,实验结果表明该方法相比多个先进的基准技术具有更好的性能。
May, 2024
本文介绍了一种具有图形结构的 DNN 模型 - 网络转换器 (NeT),用于检测工业控制系统中的异常,提供了分层次的功能,可以分析网络行为,提升了可解释性。
Feb, 2022
本篇论文探讨了深度学习模型预测过程黑盒化的问题,并以作者的博士论文为基础,重点讨论了近年来备受关注的注意力机制及其在提高预测性能和可解释性方面的潜力,以及关于在大数据集和实际应用中评估和推广的应用研究,最终总结了这些发现对未来研究和发展的启迪。
Mar, 2023
本文提出了三种可解释的深度学习体系结构,基于患者的语言能力自动检测阿尔茨海默病患者。这些体系结构使用词性特征、语言嵌入特征或这两种特征的统一体系结构,并使用自注意机制和可解释的一维卷积神经网络生成模型操作的两种类型解释:类内解释和类间解释。通过大量实验证明,该方法在 DementiaBank 数据集上的准确率为 92.2%,F1 分数为 0.952,同时能够生成解释。
Jun, 2020