为了让人工智能系统得到广泛的公众认可,我们必须开发能够解释黑匣子模型(如神经网络)决策的方法。
Oct, 2019
本研究提出了一种重新训练流程,使用 SHapley Additive explanations 值,从 XAI 入手并利用最先进的技术来增加模型的透明度和可信度,在人数统计场景和图像分类数据集上进行了实验验证,结果表明使用 SHAP-based 重新训练方法比使用相等加权训练方法更有效,分别提高了 4% 和 3% 的准确率。
Oct, 2022
这篇论文探讨解释的可解释人工智能(XAI)方法,特别是 SHapley 加性解释和局部可解释模型无关解释等两种使用广泛的方法,提出一个框架来解释它们的输出,强调它们的优缺点。
May, 2023
提出了一种简单而有用的代理,修改任何 XAI 特征排序方法的结果,以便考虑预测变量之间的依赖关系。该方法是模型不可知的,而且在存在共线性时计算每个预测变量在模型中的影响非常简单。
Apr, 2023
可解释人工智能(Explainable Artificial Intelligence)通过提供准确、一致且稳定的解释,解决机器学习中黑盒模型的透明度问题,其中基于泰勒展开的 T-Explainer 成为了一种有效的特征归因方法。
Apr, 2024
提出了一种名为 XAI Test 的应用基准评估方法,旨在评估不同水平的信息提供对最终决策的影响,针对现实世界的欺诈检测任务进行了实验,并使用多种统计方法分析了三种热门解释器的影响。
Jan, 2021
我们研究了后事解释型人工智能方法中的不确定性,并提出了一种修改基于 LIME 的算法中抽样密度的相对复杂度测量方法,以帮助不同的解释算法实现更紧密的置信水平。
Nov, 2023
本文介绍了可解释化神经网络 (Explainable Neural Network,xNN),它是一种结构化的神经网络,设计特别用于学习可解释的特征。与全连接神经网络不同,xNN 工程化的特征可以相对简单地从网络中提取出来并展示。同时,在适当的正则化下,xNN 提供了关于特征和输出之间关系的精炼解释。我们在模拟实例上展示了这种可解释特征工程化的性质。
Jun, 2018
本论文提出了一种使用解释模型同时针对多个目标类别进行本地解释的框架,该模型具有更高的解释性和更紧凑的解释,通过广泛的实验验证了该模型具有选择稳定和重要特征的能力。
Jul, 2022
通过整合不同的解释方法并利用非线性的 “解释优化器”,我们提出了一种新颖的框架,旨在增强深度神经网络的可解释性,并通过实验证实了其有效性。
May, 2024