时间序列深度模型解释:一份综述
该研究提出了一个包含六个度量标准的框架,可以用于评估时间序列分类和分割任务中的可视化解释方法的可靠质量度量,并评估了多种流行神经网络架构在不同数据集上的表现,从而为领域专家提供选择适当可视化技术的建议。
Mar, 2022
本文介绍了比较评估高维时间序列数据模型可解释性的方法,使用了常用的教育和医疗培训模拟中的日志数据,设计了两种解释性测试,评估模型输出与人们对模拟发生的期望或直觉的一致程度,发现完全贝叶斯方法在统计和人类可解释性测试的性能方面表现良好,是完全自动化模型选择的一个良好的选择。
Sep, 2019
本文提出了一种新颖的方法来评估时间序列分类的可解释性方法的性能,并提出一种评估领域专家和机器数据解释相似性的策略。该方法使用一系列新的合成数据集,并引入新的可解释性评估指标。该方法解决了文献中遇到的几个常见问题,并清楚地说明可解释性方法如何捕捉神经网络的数据使用情况,提供了一个系统的可解释性评估框架。新方法突出了 Shapley Value Sampling 和 Integrated Gradients 在时间序列分类任务中的可解释性优势。
Feb, 2022
本文综述了神经网络的解释工具和算法,提出了一种新的分类方法,介绍了解释结果的评估方法和信任度算法的应用,讨论了深度模型解释与鲁棒性和借鉴解释的联系,并介绍了一些开源库。
Mar, 2021
本文概述了新兴的解释型 AI 领域,着重介绍了 “事后” 解释,从理论和比较评估的角度对解释算法进行测试并总结最佳应用实践,在代表性应用场景中成功使用可解释的 AI,并讨论其未来挑战和方向。
Mar, 2020
本文提出了模型,这是一种基于深度学习的概率时间序列预测结构,具有内在可解释性。我们通过多个数据集和性能度量进行实验,并经验证明,我们的模型不仅具有可解释性,而且还提供了与最先进的概率时间序列预测方法相当的性能。此外,我们证明了解释感兴趣的随机过程的参数可以为多个应用领域提供有用的见解。
Jan, 2023
本文探讨了监督机器学习模型的解释能力,发现解释能力的动机与方法存在多样性和不一致性,因此提出了透明度与后期解释等多种方法,并怀疑线性模型易于解释而深度神经网络不易解释这一流行观点。
Jun, 2016
对于时间序列分类,本文广泛分析了时间序列特征和时间归因的显著性解释模型的一致性和鲁棒性,并发现它们在各种程度上都存在一些缺乏一致和鲁棒性的问题。通过指出有缺陷的显著性解释模型,我们激励了对时间序列分类开发一致和鲁棒的解释方法。
Sep, 2023
本研究提出了一种混合模型,将经典时间序列模型与基于深度神经网络的模型结合起来,通过全局深度组件实现可扩展性和数据驱动,同时通过本地经典模型处理不确定性。实验证明,该模型在数据效率、准确性和计算复杂性方面具有优势。
May, 2019