本文提出利用半事实解释拒绝选项的概念模型,以实现机器学习中的可解释性,并通过实验对拒绝选项进行了评估。
Jul, 2022
本篇论文提出使用反事实解释来解释模型对数据的拒绝,探讨如何有效计算基于原型的分类器的不同拒绝选项的反事实解释。
Feb, 2022
此调查研究了具有拒绝选项的机器学习,介绍了拒绝的两种类型,现有模型的结构和训练策略,以及如何评估模型的预测能力和拒绝质量,并提供了相关应用领域的示例。
Jul, 2021
本文系统评估了神经网络中预测拒绝选项的上下文中的各种方法,包括拒绝选项相关的不同新型损失函数和后训练处理,以生成适当的模型知识感知度度量,并介绍了拒绝选项在减少实时问题预测时间方面的应用。
Apr, 2023
通过采用逻辑推理的方法,我们提出了一种在具有拒绝选项的线性支持向量分类器中,能够得到具有正确性和最小化特性的解释的形式化保证的途径,并将其与 Anchors 算法进行了比较,结果表明我们的方法能够以较短的时间得到较短的解释。
Mar, 2024
本文提出了一种名为 LORE 的黑匣子探明方法,能够从逻辑和反事实规则两个层面解释黑匣子机器学习模型的决策原因,从而提高其在社会敏感和安全关键环境中的可用性和透明度。
May, 2018
该研究提出了一种模型不可知的方法,以计算相对复杂度在不同保护组之间没有显著差异的因果关系解释。
Nov, 2022
该研究提出了一种基于形式验证的算法,使用逻辑公式表示距离函数(目标)和预测模型(约束),解决满足性问题生成最接近的反事实解释,能够生成可行的多样化反事实解释来满足 100% 的覆盖率。
May, 2019
我们提出了一个针对机器学习模型的模型无关算法,用于在仅可得到模型的输入输出样本而非对模型本身直接访问时生成事后解释和不确定性区间。
Jan, 2023
本论文提出了一种无约束解决方案,利用归纳推理计算任何机器学习模型的解释,验证了所提出方法的可伸缩性和计算出的解释的质量。
Nov, 2018