为了解释黑盒模型,本文提出使用决策树对其进行全局解释,并采用新的决策树提取算法避免过拟合,评估表明该方法正确率更高且可解释性更强。
May, 2017
基于可解释的概率逻辑编程和查询驱动的推理机制,本研究提出一种解释解释的方法,以使黑盒人工智能系统的解释更易理解。
Jan, 2024
该研究提出了一种新方法,利用概率逻辑编程模型来生成精简且有因果结构的解释程序,使得用户可以根据可视述词并隐藏不感兴趣的细节。
Oct, 2022
设计了一种有效算法来解释黑盒模型的预测结果,该算法通过隐式学习决策树,满足精确度和简洁性需求,并结合全局和局部解释方法
Nov, 2021
提出了一种基于最优化的规则,将线性模型分解为不断增加复杂性的一系列模型,从而为线性模型创建解释,并派生出线性模型的参数化互操作性指标族,研究了解释性和预测准确性之间的权衡。
Jul, 2019
通过运用博弈论、局部特征交互作用效应和全局模型结构,我们实现了对基于树的机器学习模型的高可解释性,应用于三个医疗机器学习问题,在透露模型全局结构的同时保持其基本特征,识别出美国人口中高强度但低频率的非线性死亡风险因素,突显具有共同危险特征的明显人口亚组,识别出慢性肾脏疾病危险因素之间的非线性交互作用效应,并监测在医院部署的机器学习模型(Identifying factors leading to model's performance decay over time)
May, 2019
本文在财务领域探讨复杂机器学习模型的解释方法。通过使用生成对抗网络生成合成数据并训练一种新型的分段线性模型,能够提供更好的局部后续模型无关解释,其中包括对单个特征的归因以及对其背景的解释。
Sep, 2020
该论文关注机器学习中可解释性问题,侧重于简化模型的构建及不同形式的解释与说明,并探讨了机器学习在处理该问题时的广义视角。
Nov, 2018
机器学习中的可解释性问题已经成为一个重要的关注点,本文提出使用模型无关的方法解释机器学习预测,这种方法可以提供选择模型、解释和表示的灵活性,同时改善了调试、比较和用户接口等问题,同时回顾了最近引入的模型无关的解释方法 LIME 及其面临的主要挑战。
Jun, 2016
本论文提出了一种无约束解决方案,利用归纳推理计算任何机器学习模型的解释,验证了所提出方法的可伸缩性和计算出的解释的质量。