BayesNAM:利用不一致性提供可靠的解释
提出了一种新的框架,它可以将任意的深度学习神经网络解释方法转换为基于贝叶斯神经网络的解释方法,并内置建模不确定性的方式来量化解释的不确定性,从而确立与模型解释相关的不确定性,并在各种定量和定性实验中证明了该方法的有效性和实用性。
Jun, 2020
本文从贝叶斯角度探讨神经相加模型,并开发了实用的拉普拉斯近似方法。研究结果表明,使用该方法得到的神经相加模型可以提高表格回归和分类数据集以及现实世界医学任务的性能和解释性。
May, 2023
该论文研究了深度学习中可解释人工智能的问题,特别关注了特征加性解释器在特征加性预测器中的适用性,并对特征交互进行评估,结果显示所有解释器在正确归因特征重要性方面最终失败。
Oct, 2023
我们研究了后事解释型人工智能方法中的不确定性,并提出了一种修改基于LIME的算法中抽样密度的相对复杂度测量方法,以帮助不同的解释算法实现更紧密的置信水平。
Nov, 2023
可解释人工智能(Explainable Artificial Intelligence)通过提供准确、一致且稳定的解释,解决机器学习中黑盒模型的透明度问题,其中基于泰勒展开的T-Explainer成为了一种有效的特征归因方法。
Apr, 2024
机器学习解释的复杂性和局限性对解释的解读产生了多重影响,本研究对现行可解释人工智能方法的局限性进行了系统调查,并提出了一种分类框架来揭示解释失败的复杂性。
May, 2024
面向可解释人工智能(XAI)的高速范式转变已在近年来出现。高度复杂的机器学习(ML)模型在许多智能任务中蓬勃发展,而问题开始从传统的有效性度量转向更深层次的问题:该模型告诉我关于我的数据什么,它是如何得出这些结论的?XAI和建模技术之间的不一致可能对这些解释性方法的效力产生质疑。为了解决这些问题,我们提出了一种针对流行的XAI的模型不可知方法SHapley Additive exPlanations(Shap)进行系统的扰动分析。我们设计了一些算法,在动态推理的设置下生成相对特征重要性,这些设置针对一套流行的机器学习和深度学习方法,以及允许我们量化静态情况下生成解释的质量的度量指标。我们提出了特征重要性方法论的分类体系,度量了一致性,并观察了几个数据集中解释模型之间的可量化相似性。
May, 2024
本研究针对可解释人工智能领域的一个重要缺口,即如何解释模型中的认知不确定性。通过引入新型“确保”解释,我们提供了特征修改的指导,旨在降低不确定性,并提出了一种新的评价指标“确保排名”,以帮助用户识别最可靠的解释。该研究强调认知不确定性在解释质量中扮演的关键角色,显著提升了解释的可理解性和可信度。
Oct, 2024
本研究针对可解释人工智能(XAI)中的逆解释问题,提出了一种新的贝叶斯方法来识别和排名影响标签偏差的特征。与传统基于均值的方法相比,该方法更直观且稳健,能够有效解释标签值的偏差,为理解模型决策提供了新的视角。
Nov, 2024