本研究提出了一种重新训练流程,使用 SHapley Additive explanations 值,从 XAI 入手并利用最先进的技术来增加模型的透明度和可信度,在人数统计场景和图像分类数据集上进行了实验验证,结果表明使用 SHAP-based 重新训练方法比使用相等加权训练方法更有效,分别提高了 4% 和 3% 的准确率。
Oct, 2022
本文评估了直接将可解释性与强化学习相关联的研究,分为两类:透明算法和事后解释能力,并从解释如何潜在地启示最新的强化学习进展的角度回顾了最突出的 XAI 作品,以便在日益严峻和复杂的现实问题的未来部署中有所启示。
Aug, 2020
该论文对可解释强化学习方法进行了归类和评估,并发现大多数方法是通过模仿和简化复杂模型而非设计本质简单模型来实现目的的,缺乏人文思考和跨学科研究。因此需要进行一系列的跨学科努力才能将这些生成的解释改进为非专家用户易于理解的形式,以实现可解释人工智能的最终目标。
May, 2020
本文综述了为解决深度强化学习模型缺乏可解释性问题而出现的可解释人工智能领域及其包括但不限于符号决策树和 Shapley 值等不同方法所适用的领域和模型。
Jul, 2022
本文介绍了将之前主要用于图像和文本领域的可解释人工智能(XAI)方法应用于时间序列上的新方法。作者提出了一种方法来测试和评估各种对于时间序列的 XAI 方法,并介绍了新的验证技术用以融入时间维度。作者进一步进行了初步实验来评估所选 XAI 方法的解释质量,并证明了在初步实验中,SHAP 方法的工作表现很强,但是像 DeepLIFT,LRP 和 Saliency Maps 等方法却更适用于特定的架构。
Sep, 2019
这篇论文探讨解释的可解释人工智能(XAI)方法,特别是 SHapley 加性解释和局部可解释模型无关解释等两种使用广泛的方法,提出一个框架来解释它们的输出,强调它们的优缺点。
May, 2023
通过介绍 Explainable RL 领域中的 state-explaining techniques 及 XRL-Bench 和 TabularSHAP 方法,本研究为解释性 RL 技术的发展提供了实用工具和评估框架。
Feb, 2024
本文系统地概述了现有的可解释强化学习方法,提出了一个新的统一分类方法,并建立了三个支柱来减少解释生成和接收方之间的差距并实现解释的诚实和真实性。
Mar, 2022
利用结构化表格和时间序列生理数据实现了创伤性脑损伤 (TBI) 的短期和长期预测模型,使用六种不同的解释技术分析了局部和全局的预测模型,并对每种方法的优缺点进行了比较,发现 SHAP 是最稳定的,且保真度最高,但理解度低。
Aug, 2022
通过整合可解释的人工智能技术与自适应学习,本论文提出了一种方法来增强能源消耗预测模型,重点处理数据分布变化。利用 SHAP 聚类方法,我们的方法能够为模型的预测结果提供可解释的解释,并利用这些洞察力来自适应地改进模型,平衡模型复杂度和预测性能。我们引入了一个三阶段的过程:(1) 获取 SHAP 值以解释模型的预测结果,(2) 通过聚类 SHAP 值来识别不同的模式和异常值,以及 (3) 根据得到的 SHAP 聚类特征来改进模型。我们的方法能够减轻过拟合并确保处理数据分布变化的鲁棒性。我们在一个包含建筑物能耗记录以及两个额外数据集的综合数据集上评估了我们的方法,以评估我们的方法在其他领域、回归和分类问题中的可迁移性。我们的实验结果表明,我们的方法在两种任务类型中均具有有效性,能够改善预测性能并提供可解释的模型解释。