- 即便是从仅有的条件中获得的:以反事实为指导的最佳半事实性解释能否找到?
通过在 7 个数据集上使用 5 个关键指标对 8 种半事实方法进行全面测试,确定是否需要使用反事实指导来找到最佳的半事实解释,结果表明不需要,而是计算决策空间的其他方面能够得到更好的半事实可解释性。
- 弱学习器解释的组合以提高随机森林的解释和鲁棒性
通过组合弱学习者解释的鉴别平均值,可以提高集成方法中解释的鲁棒性。该方法利用后续的 SHAP 方法和随机森林集成进行实施和测试,并取得了成功的结果。通过定量测量获得的改进,并提供了一些关于集成方法中可解释性鲁棒性的见解。
- 解释问题而非辩解
解释性人工智能(XAI)是一个年轻但非常有前景的研究领域。在本文中,我们将 XAI 领域内纷繁复杂的目标分为两种互补的文化:人 / 价值导向的解释(蓝色 XAI)和模型 / 验证导向的解释(红色 XAI)。我们还指出,红色 XAI 领域目前 - SIDU-TXT:一种用于 NLP 的 XAI 算法,采用完整评估方法
在这篇论文中,我们探讨了可解释人工智能方法在文本领域的适用性,提出了 SIDU-TXT 方法,通过生成热力图来解释模型预测所关键的上下文相关的文本元素,并使用综合评估框架对其进行了评估。研究发现,SIDU-TXT 方法在情感分析任务中比其他 - 利用因果发现对黑盒机器学习模型进行反事实解释,并应用于信用评级
该研究提出了一种新的可解释人工智能框架,利用反事实概率和关于因果结构的先验信息,以实现通过因果发现方法和黑盒分类模型来估计因果图并估计解释得分,从而更准确地解释模型的内部机制。通过人工数据的数值实验和信贷评级的实际数据应用,证明了该方法在因 - 机器学习模型的多样化解释:基于数据驱动和领域驱动视角
我们的目标是通过从一组同样好的模型中找到符合物理定律并满足利益相关者需求的预期解释的准确模型,进而促进解释能力强的人工智能(XAI)融入科学领域。
- ICLR尊重模型:精细和稳健的解释与共享比率分解
我们提出了一种名为 SRD(共享比例分解)的新颖可解释 AI(XAI)方法,真实地反映了模型的推理过程,提高了解释的鲁棒性。通过采用向量视角考虑滤波器之间复杂的非线性相互作用,我们与传统的神经级别方法不同,我们引入了一个有趣的观察称为仅激活 - 可解释的贝叶斯优化
提出了一种基于规则的解释性方法 TNTRules,通过多目标优化生成高质量解释,从而弥合 Bayesian optimization 和 XAI 之间的差距。通过对基准优化问题和实际超参数优化任务的评估,证明了 TNTRules 在生成高质 - 分析开放存储库中 AI 视觉模型在对抗攻击下的质量属性
我们提出了一个集成的过程,用于验证 AI 模型的准确性、评估其鲁棒性以及比较解释效用,并展示了六种计算机视觉模型在不同扰动和 XAI 方法下的评估结果。
- 走向可解释人工智能(XAI):数据挖掘视角
通过数据挖掘方法和应用的角度,对深度神经网络进行可解释人工智能(XAI)的综合、数据中心的研究,并将现有工作分为三类:对深层模型的解释、对训练数据的影响以及领域知识的洞察。
- 基于流形的 SAR 识别网络解释的 Shapley 值
在合成孔径雷达(SAR)等风险高、成本高的场景中,可解释的人工智能(XAI)对于提高深度神经网络的透明度和可信度至关重要。Shapley 是一种具有强大数学基础的基于博弈的解释技术。然而,Shapley 假设模型的特征是独立的,这使得高维模 - KAXAI: 知识分析与可解释人工智能集成环境
该论文描述了一个整合 AutoML、XAI 和合成数据生成的系统的设计,从而为用户提供了优良的用户体验设计,使他们能够利用机器学习的力量而抽象其复杂性并提供高可用性。论文中介绍了两种新型分类器,逻辑回归森林和支持向量树,用于提高模型性能,并 - 任意时刻的近似正式特征归因
人工智能和机器学习模型的广泛应用与一系列相关问题需要可解释的人工智能。形式特征归属是一种新的方法,定义了特征重要性作为包含给定特征的正式反演解释的比例。本文提出了一种高效的启发式算法以适应性地近似形式特征归属,在多个常用数据集上的实验结果表 - 从概率电路中推导可理解的理论
本文提出了一种名为 PUTPUT(通过修剪基本逻辑理论进行概率电路理解)的方法,通过计算可理解的、可读的逻辑理论来改进概率电路的可解释性,并应用于一个真实的使用案例,即自动生成音乐播放列表并将其表示为可读(数据库)查询。评估结果表明,该方法 - 忠诚度度量中的不一致问题
解释性人工智能(XAI)领域旨在解释黑盒机器学习模型的工作方式,而选择合适的方法以及衡量本地解释的忠实度的当前指标缺乏一致性,使得使用者在选择最忠实的解释时感到困惑。
- 应用 XAI 和大型语言模型提取化学中人类可解释的结构 - 性质关系
提出了 XpertAI 框架,将 XAI 方法与大型语言模型相结合,以访问科学文献,自动生成原始化学数据的易于理解的自然语言解释。通过进行 5 个案例研究来评估 XpertAI 的性能,结果表明 XpertAI 将大型语言模型和 XAI 工 - 推进事后基于案例的解释与特征突出
提出了两种通用算法(潜在和超像素基础),可以从测试图像中分离出多个清晰的特征部分,并将其与训练数据中的解释性案例联系起来,通过精心设计的用户研究验证了其有效性,结果表明所提出的方法可以适当调整用户对 ImageNet 数据集中模糊分类的正确 - 可解释人工智能(XAI)2.0:开放挑战和跨学科研究方向的宣言
通过提出 27 个开放问题分类为九类,本文不仅强调了 XAI 及其在现实世界中的应用的进展,也解决了 XAI 中的挑战,并强调了更广泛的视角和协作努力的需求,以推动 XAI 的发展和贡献于其持续成功。
- 本地通用基于规则的解释
本研究提出了一种基于规则的 Local Universal Explainer(LUX)模型,可以生成事实、反事实和视觉解释,通过修改决策树算法实现倾斜分割和与 SHAP 或 LIME 等特征重要性 XAI 方法的集成。该方法通过选择对解释 - 利用 XAI 增强非法活动检测:多模态图 - LLM 框架
我们提出了一种新颖的多模态主动方法来解决金融网络犯罪检测中的可解释性问题。我们利用深度学习模型从交易顺序、子图连接和叙述生成中提取关键表示,显著简化分析师的调查过程,并利用 LLM 生成传真来帮助分析师进一步理解交易和其元数据。