提供全局反事实解释问题的简洁表述并建立了比较解决方案的原则标准,使用聚类和决策树作为关键组件的创新算法解决全局反事实问题,并通过与其他方法的综合实验评估验证了算法的能力。
May, 2024
通过梯度优化,引入了一种新的整合方法,为可区分分类模型生成本地、小组和全局反事实解释,以解决全局反事实解释所面临的挑战,并增强了可行性和可信度,从而提高了 AI 模型的可解释性和负责任性。
提出了一种名为 GLOBE-CE 的灵活框架,旨在解决当前解释性方法中与可靠性和可扩展性有关的问题,并在针对高维数据集和连续特征存在的情况下提供全局和高效的反事实解释,通过公开可用的数据集和用户研究进行了评估,证明了该框架在速度、可靠性等多个指标上明显优于当前先进技术。
May, 2023
通过算法补偿实施的反事实推演已成为使人工智能系统具有可解释性的强大工具,本文提出了一种名为 LocalFACE 的模型不可知技术,通过局部获取的信息在每个算法补偿步骤中构建可行且可操作的反事实解释。
Sep, 2023
本研究旨在基于因果推理,强调针对机器学习的偏见或错误决策,我们应该将注意力从解释数据的方式转向提供介绍、通过最小干预实现推荐的方式,以获得更好的结果。
Feb, 2020
本文介绍了反事实解释的脆弱性并表明其容易被操纵,进一步提出了一个新颖的目标来训练明显公平的模型,在轻微扰动下反事实解释可以找到更低成本的救济措施。然而,我们在贷款和暴力犯罪预测数据集上的实验表明,这些模型可能会不公平地提供低成本的救济措施给特定的子群体。这些发现引起了对当前反事实解释技术可信度的担忧,并希望能启发对健壮性反事实解释的探索。
Jun, 2021
该研究提出了一种模型不可知的方法,以计算相对复杂度在不同保护组之间没有显著差异的因果关系解释。
Nov, 2022
该论文通过调查 100 种不同的反事实解释方法,评估这些方法在心理和计算上的不足,并列出了五个关键的评估缺陷,并提出了标准化基准评估的路线图来解决这些影响该领域科学进展的问题。
Feb, 2021
本文提出了一种名为 CROCO 的新框架,用于生成具有鲁棒性的反事实解释,并有效地管理反事实输入更改带来的挑战,针对表格数据进行评估,证明了该方法的有效性。
Apr, 2023
本研究旨在正式和实证研究了解反事实解释的鲁棒性,以及在不同模型和不同类型扰动下的鲁棒性,并提出合理的反事实解释来改进鲁棒性和个体平等。
Mar, 2021