本文提出一种基于鲁棒性分析的特征解释新的评估标准,通过针对我们提出的评估标准进行优化,获得了松散且必要的解释和可以将当前预测移动到目标类的特征集。我们通过多领域实验和用户研究验证了我们评估标准和解释的有用性。
May, 2020
机器学习模型的决策过程解释对于确保其可靠性和公平性至关重要。我们提出了一个统一框架,通过四个诊断属性实现了突出和交互式解释的直接比较,并揭示了不同诊断属性方面各解释类型的优势。突出解释对模型预测最为忠实,而交互式解释对于学习模拟模型预测提供了更好的效用,这些认识进一步凸显了未来研究发展结合方法以提高所有诊断属性的需求。
Jun, 2024
我们提出了一种选择性解释的特征归因方法,它检测出深度学习模型产生低质量解释的情况,并使用初始猜测解释技术改善这些解释,从而使实践者能够在提供初始猜测的解释之间进行选择,从而弥补了深度学习模型及其高质量对应物之间的差距。
May, 2024
该论文旨在通过将不同方法或其变种的多个解释结合起来,系统地提高特征归因的质量,从而改进理解和验证复杂的机器学习模型的预测,该组合策略在多个模型架构和流行的特征归因技术中始终优于个别方法和现有基准。
通过合作博弈理论和因果强度的措施,将多个可能的诱导解释汇总为特征重要性评分,从而解决了单个和全部有效诱导解释之间的矛盾,这些解释对多个数据集都具有鲁棒性,同时欺骗 SHAP 和 LIME 的攻击也是有效的。
Sep, 2023
提出了一种可解释的特征构造 (EFC) 方法,该方法通过聚合实例解释的预测模型,识别了 IME 和 SHAP 等流行解释方法所揭示的共同属性组,并使用逻辑,关系,笛卡尔,数字,阈值 num-of-N 和 X-of-N 构造算子,将搜索空间减少到这些共同属性组中,最终在 30 个真实世界分类数据集上证明了 EFC 在提高分类准确性和构造可解释性特征方面的有效性。
Jan, 2023
本文主要研究神经网络的解释方法,并通过对多种解释方法的组合与模型不确定性的降低,得到简洁而精确的聚合解释。同时,论文对解释的鲁棒性进行了研究,提出了相对于单独的解释方法,聚合解释更加能够抵御对抗攻击。
Mar, 2019
本篇研究提出了多维特征重要性(FI)解释的新方法,包括改进训练过程、比较不同特征移除方法、引入四种基于搜索的方法来识别 FI 解释。在六个文本分类数据集上的实验表明,引入的平行本地搜索(PLS)方法是唯一能够持续优于随机搜索的方法,FI 解释的改进也大幅提升了分类性能。
Jun, 2021
提出了一种通过神经网络模型本身来评估特征归因方法的框架,使用神经网络生成关键特征来评估各种归因方法的一致性和局限性。
Mar, 2022
本研究着眼于解释模型,提出一种基于特征删除的解释框架,包括 26 种方法(如 SHAP 和 LIME 等),揭示这些方法间的相似性,为选择和使用工具提供了有力支持,并且为进一步的可解释 AI 研究提供有益方向。
Nov, 2020