可解释的主动学习
该论文研究了主动学习中困难的预测模型选择问题,并提出一种基于模型探针(model probes)的方法Biased-Robin Algorithm,能够在相同成本和先验概率下有效地选择模型。
Jul, 2012
机器学习中的可解释性问题已经成为一个重要的关注点,本文提出使用模型无关的方法解释机器学习预测,这种方法可以提供选择模型、解释和表示的灵活性,同时改善了调试、比较和用户接口等问题,同时回顾了最近引入的模型无关的解释方法LIME及其面临的主要挑战。
Jun, 2016
在这项工作中,我们提出了一种名为anchor-LIME(aLIME)的与模型无关的技术,该技术能够生成高精度、基于规则的解释,其覆盖边界非常清晰,并通过模拟实验比较了aLIME和线性LIME,并从各种领域和任务的定性示例中展示了aLIME的灵活性。
Nov, 2016
该研究提出了一种名为KL-LIME的新方法,将Bayesian预测模型的信息局部投影到一个简单的解释模型中,以解释MNIST手写数字分类结果。该方法结合了LIME和贝叶斯预测变量选择方法的思想,并在解释的保真度和复杂度之间找到了平衡。
Oct, 2018
本文讨论超越传统误差测量和图形评估机器学习模型的几种通用的解释方法,包括决策树模型、个体条件期望、局部可解释模型无关解释、偏置度量图和Shapley解释;并提供现实应用建议和公共软件示例以复现性检验。
Oct, 2018
本文探讨了人们对计算机可解释性的两个定义,即可模拟性和“what if”局部解释性。其中,通过对1000名参与者进行用户研究,我们测试了人类是否能够在通常被认为是局部可解释的模型上模仿可模拟性和“what if”局部可解释性的定义,并发现运行时间操作计数与局部解释性任务的准确性呈负相关关系。此外,我们发现决策树和逻辑回归模型相比于神经网络模型,是更加容易被解释的模型。
Feb, 2019
本文主要研究神经网络的解释方法,并通过对多种解释方法的组合与模型不确定性的降低,得到简洁而精确的聚合解释。同时,论文对解释的鲁棒性进行了研究,提出了相对于单独的解释方法,聚合解释更加能够抵御对抗攻击。
Mar, 2019
该文提供了LIME算法的首个理论分析,当函数为线性函数时,我们为可解释模型的系数导出了闭式表达式,其中这些系数与被解释函数的梯度成正比,但分析也揭示了LIME在选择参数不当时可能会错过重要的特征。
Jan, 2020
本文探讨了主动学习中样本标注代价昂贵导致的偏差问题并提出了一种新的校正方法,解释了为何忽略这种偏差也能带来一些经验上的成功,尤其对参数众多的神经网络等少量数据训练情境下,这种偏差反而有益。
Jan, 2021
提出了一种基于不变风险最小化 (IRM) 原则的模型无关局部解释方法,该方法能够稳定、直观地生成高保真度解释,该方法通过消除黑盒函数梯度在附近范围内突然变化的特征,实现了与实际邻居方法相当甚至更好的解释质量,同时没有必要花费过多时间来学习邻居结构。
Jan, 2022