提供关于机器学习算法如何工作和 / 或进行特定预测的解释是改善其可靠性、公平性和鲁棒性的主要工具之一。在解释类型中,反事实是最直观的一种,它是与给定点仅在预测目标和某些特征上不同的示例,它呈现了原始示例中需要改变的特征来翻转该示例的预测。然而,这种反事实可能具有与原始示例不同的许多不同特征,使得其解释困难。在本文中,我们提出明确为反事实生成添加一个基数约束,限制与原始示例不同的特征数量,从而提供更易解释和易理解的反事实。
Apr, 2024
通过提出一种基于随机学习的框架和特征选择模块来平衡反事实解释的权衡,本研究在生成可行的反事实解释方面展现了其有效性,并表明其比基线更加多样化和高效。
Sep, 2022
本研究旨在基于因果推理,强调针对机器学习的偏见或错误决策,我们应该将注意力从解释数据的方式转向提供介绍、通过最小干预实现推荐的方式,以获得更好的结果。
Feb, 2020
本研究旨在正式和实证研究了解反事实解释的鲁棒性,以及在不同模型和不同类型扰动下的鲁棒性,并提出合理的反事实解释来改进鲁棒性和个体平等。
Mar, 2021
该研究提出了一种模型不可知的方法,以计算相对复杂度在不同保护组之间没有显著差异的因果关系解释。
Nov, 2022
通过重新定义反事实解释方法,结合强化学习的特点,探索在强化学习领域实现反事实解释的方法和研究方向。
Oct, 2022
本文介绍了反事实解释的脆弱性并表明其容易被操纵,进一步提出了一个新颖的目标来训练明显公平的模型,在轻微扰动下反事实解释可以找到更低成本的救济措施。然而,我们在贷款和暴力犯罪预测数据集上的实验表明,这些模型可能会不公平地提供低成本的救济措施给特定的子群体。这些发现引起了对当前反事实解释技术可信度的担忧,并希望能启发对健壮性反事实解释的探索。
Jun, 2021
通过使用结构性因果模型,生成可行的对抗样本对于解释人工智能模型在医疗和金融等关键领域的决策是至关重要的。本论文提出了一种生成适用于实际应用中的可行对抗样本的方法,并且通过实验证明了其效果。
Dec, 2019
本文旨在在战略环境下寻找最优的政策和对策解释,包括 NP 难的问题,非降性和子模性,用标准贪心算法获得近似保证。最后,我们表明通过将拟阵约束加入问题的制定中,我们可以提高对策解释的最优集合的多样性,并激励整个人口谱上的个体自我改进。
本文提出 Counterfactual Explainable Recommendation(CountER)模型,并利用因果推理的洞见进行解释,通过联合优化来生成新的最小更改使得机器推荐相反的物品,以便形成推荐的原因解释,具有更高的解释质量。
Aug, 2021