该研究论文探讨了黑盒算法和替代解释器在可解释入侵检测系统(X-IDS)中引发的信任问题。通过将教学法和分解法综合应用于课程,该文介绍了一种混合的规则提取算法,从隐藏层中提取出可信任的规则集,用于黑盒深度神经网络(DNN)的解释。评估结果表明,这种算法能够生成与 DNN 输出相似的规则集,具有 99.9% 的准确率,并在解释性和性能方面进行了全面分析,展示了规则提取速度和准确性之间的权衡。
Jan, 2024
介绍了 CGX(Column Generation eXplainer),一种基于线性规划的分解方法,可以从深度神经网络的隐藏表示中提取规则,优化任意数量的目标,并满足准确复现、稳定性和复杂度降低等特点,提高了可解释性。
Apr, 2023
本文提出了一种新的范式,使用一个可解释的二层神经网络学习一组独立的逻辑规则作为分类的模型,并提出一种基于稀疏性的规则得出算法,相比其他学习算法和黑匣子模型,该方法可以在分类准确性和简单性之间取得更好的平衡。
Mar, 2021
这篇论文提出了一种深度学习和逻辑规则相结合的通用框架,能够将逻辑规则的结构信息转移至神经网络的权重中,有效地提高了 CNN 和 RNN 的性能,适用于情感分析和命名实体识别等多个领域。
Mar, 2016
本文介绍了一种新的方法来解释深度学习模型的分类决策,特别是在图像分类方面,该方法利用了所提出的深度泰勒展开技术,可以提高模型的可解释性并从输入元素的贡献中得出解释。
Dec, 2015
提出了一种结合深度学习和基于专家规则解释性的端到端方法,利用图模型和预定义噪声规则建立规则网络,达到处理噪声数据和提高可解释性的效果。在工业生产系统中的实验表明,该方法可以达到非常高的泛化稳定性,比纯规则方法具有更好的拟合能力和更好的可解释性。
Nov, 2022
本文使用综合梯度来描述每个神经元对输出类的归因,并提供一套可解释性工具,使神经元对于分类的个人贡献可以排名和可视化。该技术将使神经网络更小、更高效并且更可测试,有助于实现在小型嵌入式系统中的实施,更易于验证和验证,并促进将深度学习应用于未来的原地行星探测任务。
Jan, 2022
本研究提出一种称为 Decomposed Learning(DecL)的新方法,通过限制推理步骤到结构空间的一部分来执行高效学习。我们表明,在真实世界的设置中,DecL 算法比精确的学习更有效和准确。
Jun, 2012
本文提出了一种端到端的神经模型 - NCRL,用于学习组合逻辑规则,该模型能够检测到规则主体的最佳组合结构以及在小组成的基础上预测规则的结果,实验证明其可扩展,高效,并在大规模知识图谱上的知识图谱填充等任务中取得了最先进的表现。
Mar, 2023
本文提出了一种新的深度学习训练方法,将规则集成到深度学习中,使规则的优势在推理过程中是可控的。DeepCTRL 不需要重新训练以适应规则强度 - 在推理过程中,用户可以根据所需的准确率和规则验证比来调整它。在实际应用中,DeepCTRL 可以提高模型的可信度和可靠性,并在下游任务中提供准确性提高。
Jun, 2021