本论文提出了一种无约束解决方案,利用归纳推理计算任何机器学习模型的解释,验证了所提出方法的可伸缩性和计算出的解释的质量。
Nov, 2018
本研究提出了一种基于因果关系概念的分类器结果解释定义,并与以前提出的解释概念进行了比较和研究,同时在金融领域使用两个真实数据集进行了实验评估。
Mar, 2020
本研究提出了概率充分解释的理念,即通过“足够简单”的特征子集来“足以”解释分类行为,并结合可扩展的概率推理算法设计出可行的实现方案。实验证明,本算法找到的充分解释更有效,且优于基准模型 Anchors 和逻辑解释。
May, 2021
本文从机器学习、解释、特征成员问题、分类器和多项式时间五个关键词出发,提出了一种能够较为高效地解决多项式时间分类器中特征成员问题的方法,并通过实验结果验证了其可行性。
Feb, 2022
本篇论文研究用于决策树的最小的delta相关集的计算方法,提出两种用于计算决策树最小的delta相关集的逻辑编码并设计一个多项式时间复杂度的算法,并且实验结果表明这些计算方法是实用的。
May, 2022
该论文提出了解释机器学习模型预测的方法,同时讨论了相关性和必要性问题,证明了多个机器学习分类器的成员和困难性,并针对不同分类器提出了具体算法。实验结果表明所提算法的可扩展性较好。
Oct, 2022
通过引入一个拓扑框架,本文研究了基于规则的解释方法的解释能力,提出了解释方案的可定义性的概念,并讨论了解释方案的选择如何取决于用户对领域和特征空间概率测度的了解程度。
Jan, 2023
研究了分类器的决策规律,提出了两种解释的方法:有支撑和对比解释。当处理非二分特征时,这些解释会受到显著影响,在此基础上,提出了一种新的完备原因的概念及其量化运算符。
Apr, 2023
通过合作博弈理论和因果强度的措施,将多个可能的诱导解释汇总为特征重要性评分,从而解决了单个和全部有效诱导解释之间的矛盾,这些解释对多个数据集都具有鲁棒性,同时欺骗SHAP和LIME的攻击也是有效的。
Sep, 2023
本研究解决了黑箱分类器决策解释的重要性与计算挑战之间的矛盾。我们提出了一组理想的解释器属性,并研究它们之间的关系及不兼容性,最终识别出满足两个关键兼容属性的解释器全家族,这些实例提供了被称为弱假设解释的充分理由。该研究引入了第一个保证存在解释及其全局一致性的广泛解释器家族,为黑箱模型决策提供了新的视角和工具。
Aug, 2024