timeXplain -- 时间序列分类器预测解释框架
TimeX 通过引入模型行为一致性的新颖表述来训练,通过生成离散归属度量和学习解释的潜在空间,提供更具解释性和灵活性的解释方法,能够有效地进行时间序列建模的解释和预测。
Jun, 2023
本研究提出一种新的性能 - 可解释性分析框架,旨在评估和基准测试机器学习方法。该框架详细说明了一组特征,系统化现有机器学习方法的性能 - 可解释性评估。为了说明框架的使用,我们将其应用于基准测试当前最先进的多元时间序列分类器。
May, 2020
本文介绍了将之前主要用于图像和文本领域的可解释人工智能(XAI)方法应用于时间序列上的新方法。作者提出了一种方法来测试和评估各种对于时间序列的 XAI 方法,并介绍了新的验证技术用以融入时间维度。作者进一步进行了初步实验来评估所选 XAI 方法的解释质量,并证明了在初步实验中,SHAP 方法的工作表现很强,但是像 DeepLIFT,LRP 和 Saliency Maps 等方法却更适用于特定的架构。
Sep, 2019
本文提出了 WindowSHAP 框架,一个用于解释时间序列分类器的模型无关框架,使用 Shapley 值来降低计算复杂度并提高解释质量,提供三个不同的算法,分别对应静态、滑动和动态时间窗口,应用于医学领域的数据,获得了较好的实验结果。
Nov, 2022
本文提出了一种基于深度神经网络的师生架构(蒸馏模型),用于在时间序列分类任务中提供可解释性。该方法通过将时间序列转换为 2D 图形,并应用图像高亮方法(如 LIME 和 GradCam),使预测结果可解释。同时,该方法在与基准模型竞争时提供了更高的准确性,代价是增加了训练时间。
Nov, 2023
本文提出了一种新颖的方法来评估时间序列分类的可解释性方法的性能,并提出一种评估领域专家和机器数据解释相似性的策略。该方法使用一系列新的合成数据集,并引入新的可解释性评估指标。该方法解决了文献中遇到的几个常见问题,并清楚地说明可解释性方法如何捕捉神经网络的数据使用情况,提供了一个系统的可解释性评估框架。新方法突出了 Shapley Value Sampling 和 Integrated Gradients 在时间序列分类任务中的可解释性优势。
Feb, 2022
该论文从信息论的角度研究深度学习模型在时间序列数据上的解释问题,并介绍了一种新颖的时间序列可解释学习框架 TimeX++,通过实验结果证明其在解释质量方面的显著改进。
May, 2024
本文提出了一个可视化分析工作流程,以支持全局和局部解释的无缝转换,重点是基于时间序列分类的属性和反事实分析,通过采用本地 XAI 技术(归因),将其应用于传统数据集(图像,文本)来分析时间序列分类,进而生成全局概览。
Jul, 2023
该论文提出了一个交互式和可解释的机器学习框架,同时结合了一个迭代的 XAI 管道和八个全局监控机制,通过可视化分析系统 explAIner 在 TensorBoard 环境下执行,增强了用户了解机器学习模型以及发现其局限性、优化和更新的能力,同时通过用户研究证实该框架可以帮助用户获得更详尽的信息和发现更多扩展机会。
Jul, 2019
本研究提出了一种基于时序多元数据和可解释人工智能的反事实解释算法,该算法能够产生高质量、可视化、近距离和可信的反事实解释,帮助黑匣子模型的解释和决策过程可靠性的提升。
Aug, 2022