- 可解释人工智能与多重共线性:当前方法的简要综述
通过调查现有方法处理多重共线性问题,本文提供了在最新的处理多重共线性问题的背景下,解释性人工智能的最新技术方法的综述,并讨论了当前解释性人工智能方法及其在处理多重共线性问题方面的局限性,并提出未来的研究方向。
- 可解释人工智能用于入侵检测模型的比较分析
本研究通过使用遮挡敏感性方法,对二元和多类别分类的入侵检测任务中的各种机器学习模型进行了分析,使用相同的数据集。我们发现,大多数分类器仅利用少于三个关键特征就能实现高准确性,表明有效的特征工程对于入侵检测可能比应用复杂模型更为重要。我们还发 - 客观解释评估指标可靠性研究:一项对抗分析
本文提出了一种新的解释技术,称为 SHifted Adversaries using Pixel Elimination (SHAPE),并证明了它是一种对常用重要性基于视觉 XAI 方法进行鲁棒性和可靠性度量的对抗性解释,相比于 Grad - IJCAI分析训练样本对解释的影响
通过解释 AI 系统的决策,例如提供达到子程序目标的反事实解释,来分析 AI 系统的推理是一种流行的可解释 AI(XAI)方法。本文提出了一个新问题,即识别对给定解释(或相关量)有很高影响力的训练数据样本,并研究了受保护群体之间子程序成本差 - 利用特征空间中的马氏距离和分布偏好提升反事实图像生成
本文介绍了一种在黑盒模型特征空间中计算特征重要性的新方法,并利用信息融合技术将特征反事实解释转化为图像反事实解释。实验结果表明,我们的方法生成的反事实解释在像素和特征空间上与原始图像非常相似,并且表现优于已有的基准模型,获得了令人印象深刻的 - 异质催化吸附能量的可解释性数据驱动建模
通过将机器学习技术与可解释人工智能(XAI)相结合,我们的研究旨在构建一个坚固的框架,利用 OC20 等大型数据集,通过模型可解释性来改进催化剂设计。
- ICLR少即是多:发现简明网络解释
提出一种新的方法,通过生成人可理解的视觉解释来增强深度神经图像分类器的可解释性,并且该方法通过同时优化三个标准:解释应该少、多样化和可理解,以自动找出区分类别的关键视觉解释。
- 热图的基于部件的定量分析
热力图在解释人工智能(XAI)中起到了重要的作用,这篇论文探讨了提高热力图信息性和可访问性的方法,并提出了开发自动化、可扩展和数值分析方法以使热力图 XAI 更客观、用户友好和成本效益的需求,同时也需要全面的评估指标来评估热力图质量。
- 为何解释失败?XAI 中失败的分类和讨论
机器学习解释的复杂性和局限性对解释的解读产生了多重影响,本研究对现行可解释人工智能方法的局限性进行了系统调查,并提出了一种分类框架来揭示解释失败的复杂性。
- 球重叠数量模型不可知反事实 (ONB-MACF):基于数据形态学的诚信人工智能反事实生成方法
通过分析数据形态策略在生成反事实解释中的价值,本研究引入了基于数据形态的可解释性策略 ——ONB-MACF 方法,并在多样化表格数据集上的多个质量指标中证明其优于现有最先进的反事实生成方法,支持了数据形态策略在构建可信人工智能方面的潜力。
- 深化对话式可解释人工智能中用户体验的愿望实现框架
本文研究了多方位可解释人工智能(XAI)的相互关系,探讨了不同类型的解释如何协同满足用户的 XAI 需求。我们介绍了 Intent Fulfilment Framework(IFF)来创建解释体验,并结合 Explanation Follo - 医学、工业及其他领域图像分割中的可解释人工智能(XAI):一项调研
这篇论文针对 XAI 在语义图像分割中的应用,提出了第一份全面的综述。文章对应用类别、领域、评估指标和数据集进行了分析和分类,并提出了可解释的语义分割的分类体系,讨论了潜在的挑战和未来研究方向。
- 专注回门攻击:针对联合迁移学习的专注化后门攻击
基于联邦迁移学习的聚焦后门攻击。
- 对比学习下的图形全局概念解释
通过从图神经网络的预测中提取全局概念解释的方法,我们提出了一种超越提高信任和验证模型公平性的 xAI 实践,还能够在几乎没有人类先验直觉的应用领域中发现有价值的科学见解,从而对结构 - 性质关系的任务进行更深入的理解。
- 引导绝对梯度:梯度大小对解释定位和显著性的影响
本文提出了一种新的基于梯度的 XAI 方法,称为引导绝对梯度方法,用于显著图解释。我们利用正负梯度幅度,并采用梯度方差来区分噪声扣除的重要区域。我们还引入了一种名为 ReCover And Predict(RCAP)的新型评估指标,考虑到解 - 可解释的生成人工智能 (GenXAI):调研、概念化与研究议程
生成人工智能(GenAI)标志着人工智能能够生成解决方案,从而实现能够认知的人工智能,但也引出了解释可解释性(XAI)的新需求和挑战。本文首先强调了 XAI 在 GenAI 的重要性,并介绍了解释要求的新颖性和涵盖的方面。接着,我们对现有的 - XAIport:AI 模型开发中早期采用 XAI 的服务框架
本研究提出了一种早期采用可解释人工智能(XAI)的方法,重点关注三个属性:解释的质量、解释摘要应在多个 XAI 方法中保持一致;架构兼容性,为了有效集成 XAI,被解释的模型和 XAI 方法的架构样式必须与框架兼容;可配置操作,XAI 解释 - 感知的限度:分析解释型人工智能中显著性地图的不一致性
解释性人工智能在解密人工智能决策过程中,特别是在医疗行业中起着不可或缺的作用,医生在诊断时倚赖详尽的推理,传统方法无法达到的进步。然而,这些模型的复杂性和不透明性既是优势也是劣势,他们作为 “黑匣子” 运作,其推理方式被遮蔽不可访问,增加了 - XpertAI:揭示子流形的模型策略
近年来,可解释性人工智能(Explainable AI,XAI)方法已经促进了机器学习模型的深入验证和知识提取。然而,尽管分类问题得到了广泛研究,但很少有 XAI 解决方案针对回归模型的特定挑战。本文介绍了 XpertAI,一个将预测策略分 - 基于 XAI 的对抗攻击检测深伪检测器
使用 XAI 作为一种新方法,通过生成可解释性地图来识别对深度伪造检测器的对抗攻击,进而开发出一种具有防御性的深度伪造检测器。