SHIELD:可解释人工智能的正则化技术
本研究提出了一种重新训练流程,使用 SHapley Additive explanations 值,从 XAI 入手并利用最先进的技术来增加模型的透明度和可信度,在人数统计场景和图像分类数据集上进行了实验验证,结果表明使用 SHAP-based 重新训练方法比使用相等加权训练方法更有效,分别提高了 4% 和 3% 的准确率。
Oct, 2022
评估目前的可解释人工智能方法,通过基于真实模拟和敏感性分析对其进行评分。综合应用各种黑盒模型进行评估,结果显示机器学习模型的准确性与其可解释性密切相关,并展示了可解释人工智能方法在工业过程中预测真实敏感性的差异。
Jul, 2024
这篇论文探讨解释的可解释人工智能(XAI)方法,特别是 SHapley 加性解释和局部可解释模型无关解释等两种使用广泛的方法,提出一个框架来解释它们的输出,强调它们的优缺点。
May, 2023
通过解释性更详细的说明,理解在黑匣子人工智能技术中隐藏的计算细节对于我们日常生活中计算效率高的人工智能技术及其各种应用至关重要。该论文分析了几种解释性人工智能框架和方法,包括 LIME(局部可解释的模型无关解释)和 SHAP(Shapley 附加解释),并使用随机森林分类器作为黑匣子人工智能在公开的糖尿病症状数据集上进行更好的解释和透明度进行糖尿病疾病预测。
Nov, 2023
本文介绍了一种基于信息论的正则化方法 SHADE,用于训练深度神经网络并提高分类性能。SHADE 通过条件熵定义了一个先验,并将不变表示的学习与输入和标签的相关性的学习显式分离,同时提出了适用于深度学习的随机正则化器,以实现可行的训练方案。实验结果表明,相对于常见的正则化方案,该方法有效提升了几种标准架构的分类性能。
Apr, 2018
本文提出了一种新的解释技术,称为 SHifted Adversaries using Pixel Elimination (SHAPE),并证明了它是一种对常用重要性基于视觉 XAI 方法进行鲁棒性和可靠性度量的对抗性解释,相比于 GradCAM 和 GradCAM ++ 等流行解释技术,在这些测试中,SHAPE 表现更好,并引发了与这些度量标准以及人的参与评估的整体改进的问题。
Jun, 2024
本文介绍了将之前主要用于图像和文本领域的可解释人工智能(XAI)方法应用于时间序列上的新方法。作者提出了一种方法来测试和评估各种对于时间序列的 XAI 方法,并介绍了新的验证技术用以融入时间维度。作者进一步进行了初步实验来评估所选 XAI 方法的解释质量,并证明了在初步实验中,SHAP 方法的工作表现很强,但是像 DeepLIFT,LRP 和 Saliency Maps 等方法却更适用于特定的架构。
Sep, 2019
在合成孔径雷达(SAR)等风险高、成本高的场景中,可解释的人工智能(XAI)对于提高深度神经网络的透明度和可信度至关重要。Shapley 是一种具有强大数学基础的基于博弈的解释技术。然而,Shapley 假设模型的特征是独立的,这使得高维模型的 Shapley 解释无效。本研究通过将高维特征投影到低维流形特征,并随后获得 Fusion-Shap,引入了一种基于流形的 Shapley 方法,旨在(1)解决传统 Shap 遇到的错误解释问题;(2)解决传统 Shap 在复杂场景中面临的可解释性挑战。
Jan, 2024
通过整合可解释的人工智能技术与自适应学习,本论文提出了一种方法来增强能源消耗预测模型,重点处理数据分布变化。利用 SHAP 聚类方法,我们的方法能够为模型的预测结果提供可解释的解释,并利用这些洞察力来自适应地改进模型,平衡模型复杂度和预测性能。我们引入了一个三阶段的过程:(1) 获取 SHAP 值以解释模型的预测结果,(2) 通过聚类 SHAP 值来识别不同的模式和异常值,以及 (3) 根据得到的 SHAP 聚类特征来改进模型。我们的方法能够减轻过拟合并确保处理数据分布变化的鲁棒性。我们在一个包含建筑物能耗记录以及两个额外数据集的综合数据集上评估了我们的方法,以评估我们的方法在其他领域、回归和分类问题中的可迁移性。我们的实验结果表明,我们的方法在两种任务类型中均具有有效性,能够改善预测性能并提供可解释的模型解释。
Feb, 2024
利用结构化表格和时间序列生理数据实现了创伤性脑损伤 (TBI) 的短期和长期预测模型,使用六种不同的解释技术分析了局部和全局的预测模型,并对每种方法的优缺点进行了比较,发现 SHAP 是最稳定的,且保真度最高,但理解度低。
Aug, 2022