平衡复杂模型的可解释性和准确性
本文介绍了一种基于 Venn-Abers 的新型特征重要性解释方法 Calibrated Explanations,该方法能校准底层模型、生成特征重要性解释并对概率估计和特征重要性权重进行不确定性量化。此外,该方法对模型没有偏见、规则易于理解、可生成反事实解释和不确定性量化。
May, 2023
本文说明在 AI 经济和社会领域中,快速发展的 AI 技术在很多方面已经超越人类专家。但由于错误率、偏见、噪声干扰等因素,AI 系统的应用却面临诸多挑战。为应对这种问题,出现了很多政府和监管部门针对具有准确性和健壮性的可信赖、道德的 AI 技术的监管机制。其中,说明性的 AI 技术则被广泛应用。本文从几方面介绍了这种技术在高风险可信赖 AI 系统的全生命周期中的应用。
Dec, 2022
面向可解释人工智能(XAI)的高速范式转变已在近年来出现。高度复杂的机器学习(ML)模型在许多智能任务中蓬勃发展,而问题开始从传统的有效性度量转向更深层次的问题:该模型告诉我关于我的数据什么,它是如何得出这些结论的?XAI 和建模技术之间的不一致可能对这些解释性方法的效力产生质疑。为了解决这些问题,我们提出了一种针对流行的 XAI 的模型不可知方法 SHapley Additive exPlanations(Shap)进行系统的扰动分析。我们设计了一些算法,在动态推理的设置下生成相对特征重要性,这些设置针对一套流行的机器学习和深度学习方法,以及允许我们量化静态情况下生成解释的质量的度量指标。我们提出了特征重要性方法论的分类体系,度量了一致性,并观察了几个数据集中解释模型之间的可量化相似性。
May, 2024
机器学习模型的不透明性威胁到其可解释性,可解释人工智能(XAI)技术通过提供解释 ML 模型内部决策过程的框架和方法来解决这一挑战,同时维护隐私的难题需要在理解 ML 决策和保护隐私之间找到平衡点。
Jun, 2024
机器学习、可解释人工智能、基于逻辑的可解释性、距离限制解释和扩展性是该研究论文的主要关键词和研究领域,研究了用于计算和枚举大量输入的逻辑解释器性能扩展的新算法。
May, 2024
研究表明,在机器学习中,准确度比可解释性更重要,添加解释可能会损害用户信任,同时高度真实的解释不能欺骗用户的信任,用户的信任感与其实际表现不符。
Jul, 2019
本篇论文提出一种新颖的扩展方法,将因果关系显式编码进生成输入实例的数据以解释增加信任度和帮助用户评估解释质量的 XAI 方法,并通过实验表明该方法对于拟合黑匣子和解释稳定性均达到了比初始方法更优越的表现。
Dec, 2022