从神经网络中学习准确且可解释的决策规则集
通过提出神经网络框架 Truth Table rules (TT-rules),将规则模型的全局和精确可解释性与深度神经网络的高性能相结合,将神经网络转化为基于规则的模型,该模型在医疗应用中表现出与其他可解释方法相当或更高的性能。
Sep, 2023
通过结合基于规则的模型的全局和精确可解释性属性与深度神经网络的高性能,提出了一种名为 Truth Table rules (TT-rules) 的神经网络框架,可将神经网络有效转化为基于规则的模型,并在保持性能和复杂性平衡的同时,实现对大型表格数据集的适配。
Sep, 2023
本文提出了一种新的优化框架,用于学习准确且精简的两级布尔规则,通过线性规划松弛,块坐标下降和交替最小化等高效算法来更新优化函数,以实现准确性和可解释性之间的平衡。实验表明,我们的方法在准确性和可解释性之间提供了很好的权衡。
Jun, 2016
这篇论文提出了一种深度学习和逻辑规则相结合的通用框架,能够将逻辑规则的结构信息转移至神经网络的权重中,有效地提高了 CNN 和 RNN 的性能,适用于情感分析和命名实体识别等多个领域。
Mar, 2016
本文介绍了一种名为 IMLI 的基于最大可满足性的可解释学习框架,通过结合小批量学习和迭代规则学习的方法,实现了分类规则的合成。实验结果表明,IMLI 在预测准确性、可解释性和可伸缩性之间取得了最好的平衡,并用于学习流行的可解释分类器,如决策列表和决策集。
May, 2022
本文提出增强学习可用于学习不同用户可解释的模型,由此建立他们对机器学习模型的信任。通过与医生交互,基于神经网络模型,设计了一个基于强化学习的临床决策支持系统,结果表明,机器学习专家无法准确预测哪个系统输出将最大化临床医生对底层神经网络模型的信心,这些结果对将来机器学习可解释性研究以及机器学习在医学中的应用都具有广泛的意义。
Nov, 2018
该研究提出了一种新方法来推断不同的规则集,通过在 Max-Sum 多样化框架下优化决策规则之间的小重叠,以及在鉴别品质和规则集多样性之间最大化加权总和,来克服联想规则指数级搜索空间的困难。该算法通过随机采样高度鉴别且重叠小的规则,并证明其拥有更好的预测能力和解释性。
Jun, 2020
我们提出了一种名为 Neural DNF-EO 的模型来扩展 pix2rule 的神经 DNF 模块以支持多类别和多标签分类任务,并探索模型的可扩展性和可解释性,并且证明我们的模型类似于神经网络,但提供了更好的可解释性。
Mar, 2023