利用反事实分析解释模型确信度
本文阐述了反事实解释信心分数是如何帮助用户更好地理解和更好地信任 AI 模型的预测,在人机交互系统中展示信心分数可以帮助建立人类和 AI 系统之间的信任,提出了两种用于理解模型信心的方法:(1) 基于反事实例;和 (2) 基于反事实空间的可视化。
Jun, 2022
通过使用显著特征解释和假设性解释来更加分析性地对待人工智能建议,可以降低对人工智能的过度依赖,提高医疗决策过程中的性能和一致性,尤其是在确保人工智能提供正确输出的情况下。
Aug, 2023
机器学习模型日益广泛应用,因此解释其预测和行为变得越来越重要。本文综述了针对多种不同机器学习模型高效计算对抗性解释的模型特定方法,并提出了文献中尚未考虑的模型方法。
Nov, 2019
研究了基于不同特征的人工智能辅助决策场景下,人类对人工智能的信任度与信任度校正,以及人类与人工智能协同工作的影响因素。结果表明,人类信任度的校正能够通过特定的置信度得到有效提高,尽管人类的专业独特知识对于决策的最终结果有良好的辅助作用,但同时也存在着使用本地解释会出现的问题。因此,我们需要探索新的可信度解释方法来更好地衡量和校正人类对人工智能的信任度。
Jan, 2020
本文探讨了 AI 系统中基于反事实进行的解释在实际应用中所带来的影响以及其引发的因果信念变化,通过实验证明了提供 AI 系统预测的反事实解释会影响人们对于该预测所关联的特征是否具有因果性的判断,其结果表明指出 AI 系统只能捕捉到相关关系而非因果关系可以减轻其影响。
May, 2022
本文介绍了一个通用工具 CERTIFAI,可以应用于任何黑盒模型和任何类型的输入数据,通过生产接近输入但改变模型预测的 counterfactuals,探讨机器学习模型的鲁棒性、可解释性、透明性和公平性,并介绍了第一个黑盒模型鲁棒性分数 CERScore。
May, 2019
本文介绍了解释在人工智能中的重要性,特别是解释方法的新发展。通过讨论基于属性分数和因果关系的反事实解释法,强调了逻辑推理在处理反事实时的重要性和其对评分计算的作用。
Mar, 2023
使用黑盒子分类器预测信用申请,使用反事实解释单个预测。 通过 HELOC 贷款应用数据集的实验表明,我们的贡献优于基线对策生成策略,导致更小更易于解释的反事实。
Nov, 2018