本文提出了 HR-DSS 方法,它使用可解释性 AI 解决员工流失等人力资源问题,并用 “What-if-analysis” 观察个体员工流失的原因和对策,利用最佳模型优化业务决策来实现员工保留。
Apr, 2023
机器学习模型日益广泛应用,因此解释其预测和行为变得越来越重要。本文综述了针对多种不同机器学习模型高效计算对抗性解释的模型特定方法,并提出了文献中尚未考虑的模型方法。
Nov, 2019
本研究提出反事实解释在复杂机器学习算法下的应用,以数据实例展示其在雇用相关问题中提高决策支持、遵守法律要求、引导受控变更和分析新颖洞见的作用。
May, 2023
本研究旨在基于因果推理,强调针对机器学习的偏见或错误决策,我们应该将注意力从解释数据的方式转向提供介绍、通过最小干预实现推荐的方式,以获得更好的结果。
Feb, 2020
本文综述分类了反事实解释的研究,包括如何评估和设计反事实解释算法,探讨了反事实解释在机器学习领域中的研究方向和发现的不足之处。
Oct, 2020
利用 REVISEDplus 数据驱动方法,通过在高密度区域内生成可行且合理的反事实解释,学习过程案例中活动之间的顺序模式,并评估反事实解释的有效性。
Mar, 2024
本文介绍了反事实解释的脆弱性并表明其容易被操纵,进一步提出了一个新颖的目标来训练明显公平的模型,在轻微扰动下反事实解释可以找到更低成本的救济措施。然而,我们在贷款和暴力犯罪预测数据集上的实验表明,这些模型可能会不公平地提供低成本的救济措施给特定的子群体。这些发现引起了对当前反事实解释技术可信度的担忧,并希望能启发对健壮性反事实解释的探索。
Jun, 2021
为了解决机器学习模型的可解释性问题,本研究提出了一种基于梯度优化和概率模型逼近的反事实解释方法,可以适用于不可微模型如树模型,并且该方法得出的反事实案例要优于其他针对树模型的反事实方法。
本文综述了可解释人工智能(XAI)领域中的对抗事实例,这些例子通过指示对实例进行的修改来解释训练决策模型的预测,以改变其相关预测。同时,本文探讨了可解释人工智能中多元对抗事实例的概念定义,讨论了它们的基本原理以及它们依赖的用户需求的假设,并提出了这方面的进一步研究挑战。
利用数学优化模型,通过集体反事实解释为给定组内各实例提供一个反事实解释,以使扰动实例的总成本在一定约束下最小化,从而检测对整个数据集都至关重要的特征,验证了该方法的实用性。
Oct, 2023