通过使用显著特征解释和假设性解释来更加分析性地对待人工智能建议,可以降低对人工智能的过度依赖,提高医疗决策过程中的性能和一致性,尤其是在确保人工智能提供正确输出的情况下。
Aug, 2023
本研究提出反事实解释在复杂机器学习算法下的应用,以数据实例展示其在雇用相关问题中提高决策支持、遵守法律要求、引导受控变更和分析新颖洞见的作用。
May, 2023
本研究提出一种基于变分自编码器的反事实生成方法,以改进机器学习模型在医疗领域中的解释性问题,并生成更加逼真、相关的反事实情景。
Jun, 2023
本文综述分类了反事实解释的研究,包括如何评估和设计反事实解释算法,探讨了反事实解释在机器学习领域中的研究方向和发现的不足之处。
Oct, 2020
机器学习模型日益广泛应用,因此解释其预测和行为变得越来越重要。本文综述了针对多种不同机器学习模型高效计算对抗性解释的模型特定方法,并提出了文献中尚未考虑的模型方法。
Nov, 2019
本研究对可解释人工智能中反事实和因果关系的分类算法进行了系统考察,发现当前的模型无法促进因果性,提出了新的方向和挑战。
Mar, 2021
利用 REVISEDplus 数据驱动方法,通过在高密度区域内生成可行且合理的反事实解释,学习过程案例中活动之间的顺序模式,并评估反事实解释的有效性。
Mar, 2024
本文提出了一种基于决定点过程的生成和评估多样性反事实解释的框架,旨在优化反事实行为的可行性和多样性,并提供了可比较的度量标准来评估反事实方法。通过实验,验证了该框架能生成多样性的反事实,并且能有效地近似本地决策边界。
May, 2019
通过提出一个新的反向翻译的评估方法,我们针对自然语言处理模型和任务的解释方法的一致性问题进行了调查和分析,并提出了一种新的测量指标来评估不同特征的反事实生成方法的一致性。
该研究提出了一种黑盒对抗解释器来解释医学应用中的图像分类模型,并通过对诊断放射学居民进行实验,发现反事实解释是唯一能显着提高用户对分类器决策理解的解释方法。
Jan, 2021