该研究通过外显地对深度模型进行规则化,以便人类用户可以快速了解模型预测过程,训练了深度时间序列模型,使其类概率预测具有高准确性,同时又被节点较少的决策树紧密建模。通过直观的玩具示例以及用于治疗脓毒症和艾滋病的医学任务,我们展示了这种新的树规则化方法产生的模型比简单的L1或L2惩罚更容易被人类模拟,同时不会牺牲预测能力。
Nov, 2017
本文介绍了一种利用决策树定量解释预训练卷积神经网络的预测理由的方法,通过分解CNN高卷积层的特征表示为对象部件的基本概念的方式,使决策树告诉人们哪些对象部分激活了哪些滤波器以及它们对预测得分的贡献有多大。
Feb, 2018
本文提出了一种自适应神经决策树算法,该算法将表示学习技术嵌入决策树的边缘、路由函数和叶节点中,并采用基于反向传播的训练算法自适应扩展架构,实现了基于条件计算的轻量级推理、层次化特征分离以及适应训练数据集规模和复杂度的机制。
Jul, 2018
使用知识蒸馏技术将深度神经网络转换成决策树,以同时实现较好的性能和可解释性,并比基准决策树模型获得显著更高的精度,在TensorFlow平台上实现对大数据集的可扩展性。
Dec, 2018
该论文提出了一种从CNN隐藏层激活中推断标记的概念数据并通过浅层决策树解释这些概念的方法,这可以提供关于CNN模型认为重要的概念以及这些概念如何相互作用的信息,实验表明提取的决策树在树深度较低时能够准确地代表原始CNN的分类,从而有助于人们理解有区分力的概念。
Jun, 2019
本文介绍了一种名为“地区树规则化”的方法,它可以在维持准确率的同时让神经网络更具有可解释性,该方法通过预先定义输入空间中特定区域所需的决策逻辑,鼓励深层模型分别被数个分离的决策树所逼近,本方法在多个数据集上都比只训练每个区域的决策树更能提高准确预测,同时比其他神经网络规则化方案更简单,并不会破坏预测能力;两个医疗案例证明了本方法可以通过对神经网络的审查来提高理解。
Aug, 2019
该论文介绍了一种新的机器学习模型 Neural-Backed Decision Trees,该模型结合了神经网络和决策树的优点,具有高准确性和可解释性,并在CIFAR、ImageNet等数据集上表现优异,同时提高了人类信任度和帮助了数据集调试。
Apr, 2020
本文介绍了一种机器学习任务来理解神经网络中的可解释函数,并将该框架扩展到标准和软决策树作为替代模型的情况,并通过考虑更现实的分布来生成训练数据来使其适用于更加现实的任务,并在实验中表明其具有优秀的性能。
Jun, 2022
本文综述了神经树 (NTs) 方法,以实现神经网络(NNs)和决策树(DTs)模型的有机融合,探讨了如何提高模型的可解释性,并提出了解决方案。
Sep, 2022
本文介绍了一种基于树的模型,在最小化每个叶子节点的最大误分类错误的情况下,将深度较低的树挂起,并从其每个叶子节点引入树模型,提高了整体的统计性能和解释能力。
Jun, 2023