- 回归模型的删除和插入测试
介绍了一种基于归类算法的重点特征提取方法,使用该方法比较了不同特征提取算法在回归问题中的表现,并且基于 Shapley 值考虑了二进制变量的处理方法。
- 特征重要性方法对缺陷分类器解释的影响
本文通过针对 18 个软件项目和 6 个常用分类器的案例研究,评估了该研究中的 CS 和 CA 方法计算的特征重要性排名之间的一致性,发现不同的特征重要性方法计算相同数据集和分类器的特征重要性排名可能存在巨大差异,因此需要提出一些指南以及未 - KDD通过成对置换算法实现可解释模型
本文提出了一种名为 “pairwise permutation algorithm” 的新方法,旨在缓解高维生物数据集中特征之间的相关性偏差对特征重要性评估的影响,并在玩具数据集和微生物组数据集中进行验证。
- ICLR时间序列预测特征重要性的时间依赖关系
本研究提出双重解释方法,旨在解决时间序列数据中不同观测对同一特征的相关性以及特征重要性的变化,经过对合成和实际数据的实证研究,与目前领先的解释方法相比,具有更高的一致性和更好的性能表现
- ICML利用动态遮罩解释时序预测
该论文提出了一种名为 Dynamic masks 的方法,结合动态扰动算子来产生一个基于实例的重要性得分,从而解决了机器学习模型预测解释的问题,该方法在医学和财务等领域广泛适用。
- 特征重要性解释的可解释性与搜索方法中的越界问题
本篇研究提出了多维特征重要性(FI)解释的新方法,包括改进训练过程、比较不同特征移除方法、引入四种基于搜索的方法来识别 FI 解释。在六个文本分类数据集上的实验表明,引入的平行本地搜索(PLS)方法是唯一能够持续优于随机搜索的方法,FI 解 - 女性主义认识论视角下特征重要性方法中的认知价值
本研究探讨了特征重要性方法中的认识价值隐含问题,并提出了在考虑社会背景,被压迫知识者的认识优势和采用更多互动性知识方式的前提下,如何进行尊重女性主义认识论价值的解释研究方面的建议。
- Shapley Flow:一种基于图的模型解释方法
提出了一种称之为 Shapley Flow 的新颖方法来解释机器学习模型,它可以考虑所有因果图,并将信用分配给边,而不是节点。
- 在时间序列预测中进行深度学习可解释性基准测试
本篇论文研究了基于 saliency 的可解释性方法在时间序列数据上的应用,提出并比较了多种 saliency 方法在不同神经网络结构上的性能,并提出多种指标进行评估,发现常规的网络结构和 saliency 方法难以可靠和精确地识别时间序列 - MM斜向预测聚类树
本研究提出了斜向预测聚类树(oblique predictive clustering trees),可有效处理高维稀疏数据以及特征的重要性得分提取,实验表明其与现有最优方法的性能相当且速度快得多。
- Tsetlin 机全局和局部解释的闭合表达式及其在高维数据解释中的应用
本文提出了用于理解 Tsetlin Machines 模型的闭式表达式,并从模型的合取子句中直接制定了表达式,使其可以实时捕捉功能的作用并进行可视化高维数据的新数据聚类算法。通过与 SHAP 和其他解释机器学习技术的对比,该方法具有竞争性的 - 利用机器学习进行次季气候预测:挑战、分析与进展
通过研究不同的机器学习方法,包括梯度提升和深度学习等,对美国本土的次季气候预测(SSF)进行了研究,发现通过精细构建特征表示方法,即使是简单的线性回归模型,如 Lasso,都可以取得良好的表现。期望通过研究特征的重要性,实现对气候和土地等协 - 非参数特征影响与重要性
该论文提出了特征重要性和特征影响的数学定义,并通过局部依赖曲线直接在数据上对其进行评估,证明其在预测任务中与现有特征选择技术具有竞争力。
- 使用加性重要性度量了解全局特征贡献
本研究探索了通过特征的预测能力定义特征重要性的视角,提出了两种预测能力的概念(模型基础和通用),并通过添加重要性度量的框架来规范化该方法。我们提出了一个模型不可知的方法 SAGE,量化预测能力同时考虑特征交互,并发现它比其他方法分配更准确的 - AAAI基于分类损失和特征重要性的通道剪枝指导
本论文提出了一种新的分层通道剪枝方法 CPLI,它考虑了分类损失和特征重要性,并进一步改进了现有的方法,通过新策略抑制不重要特征的影响,并在三种基准数据集(CIFAR-10,ImageNet 和 UCF-101)上取得了显著的效果。
- ICML基于 Shapley 值的解释存在的特征重要性度量问题
采用博弈论方法计算机器学习模型特征重要性的数学问题存在和 Shapley 值并不能很好地解释人类可解释目标的论证以及需要因果推理等技术增加复杂性。
- 自注意力网络的特征重要性估计
本文旨在探索利用基于注意力机制的神经网络对特征进行重要性排序以用于模型解释的方法,通过对十个数据集进行规模无关的特征重要性估计算法比较的研究,展示了利用自注意力网络(SAN)对特征进行排序与其他方法在高级别特征识别上的相似性,以及在某些情况 - CXPlain: 在不确定性下进行模型解释的因果解释
通过训练因果关系 (CXPlain) 模型,可以更准确和更快速地解释和评估机器学习模型的特征重要性和不确定性,从而帮助理解和验证机器学习模型的决策过程。
- EMNLP特征重要性的多种表现:比较文本分类中的内置和事后特征重要性
本研究对比了使用内置机制(如注意力值)和近似模型行为的事后方法(如 LIME)产生的分类器特征重要性,发现无论使用哪种方法,传统模型如 SVM 和 XGBoost 的重要特征更相似,而与深度学习模型不同;事后方法往往会比内置方法生成更相似的 - 一种去偏置的随机森林特征重要性度量方法
该论文从理论和方法论两方面,通过提出一种基于无袋预测样本的去偏 MDI 重要性度量方法,即 MDI-oob,来解决 MDI(Mean Decrease Impurity)特征选择方法中的偏差问题,并在其基础上表现出 RF(Random Fo