使用频率屏蔽解释时间序列模型
本文介绍了一种虚拟检查层,可以将时间序列转换为可解释的表示形式,使得 XAI 的方法可以适用于仅在转换后才能被解释的领域,如语音,同时演示了 DFT-LRP 在各种时间序列分类设置中的应用,并显示了 DFT-LRP 如何显示出不同分类策略的区别。
Mar, 2023
对于时间序列分类,本文广泛分析了时间序列特征和时间归因的显著性解释模型的一致性和鲁棒性,并发现它们在各种程度上都存在一些缺乏一致和鲁棒性的问题。通过指出有缺陷的显著性解释模型,我们激励了对时间序列分类开发一致和鲁棒的解释方法。
Sep, 2023
该研究提出了一种名为 timeXplain 的框架,旨在将解释性人工智能应用于时间序列分类和价值预测中,并在该框架下对几种最先进的时间序列分类器进行了大规模实验比较,发现了似乎不同的分类概念之间的相似性。
Jul, 2020
机器学习和深度学习在金融预测中越来越普遍,但是这些复杂模型缺乏透明度和可解释性,在金融等敏感领域使用具有挑战性。本文探讨了在金融领域中应用可解释性人工智能的好方法,强调数据质量、面向特定人群的方法、数据属性的考虑以及解释的稳定性的重要性。这些实践旨在应对金融行业的独特挑战和要求,并指导有效的可解释性人工智能工具的开发。
Nov, 2023
本文介绍了将之前主要用于图像和文本领域的可解释人工智能(XAI)方法应用于时间序列上的新方法。作者提出了一种方法来测试和评估各种对于时间序列的 XAI 方法,并介绍了新的验证技术用以融入时间维度。作者进一步进行了初步实验来评估所选 XAI 方法的解释质量,并证明了在初步实验中,SHAP 方法的工作表现很强,但是像 DeepLIFT,LRP 和 Saliency Maps 等方法却更适用于特定的架构。
Sep, 2019
本篇论文研究了基于 saliency 的可解释性方法在时间序列数据上的应用,提出并比较了多种 saliency 方法在不同神经网络结构上的性能,并提出多种指标进行评估,发现常规的网络结构和 saliency 方法难以可靠和精确地识别时间序列数据中特征的重要性,这主要是由于时间和特征领域的混淆所导致的,但使用文中提出的两步形式的时间 saliency rescaling 方法可以显著提高 saliency 图的质量。
Oct, 2020
本文提出了一种基于深度神经网络的师生架构(蒸馏模型),用于在时间序列分类任务中提供可解释性。该方法通过将时间序列转换为 2D 图形,并应用图像高亮方法(如 LIME 和 GradCam),使预测结果可解释。同时,该方法在与基准模型竞争时提供了更高的准确性,代价是增加了训练时间。
Nov, 2023
CGS-Mask 是一个后期处理的、与模型无关的基于细胞遗传剥离蒙版的重要性评估方法,通过将连续的时间步骤作为一个整体来评估特征对最终预测结果的影响,提供时间上的二进制和持续的特征重要性评分。CGS-Mask 在合成数据集和实际数据集上进行了评估,表明其在阐明特征重要性方面优于最先进的方法。根据我们通过问卷调查的初步用户研究,CGS-Mask 是呈现易于理解的时间序列预测结果最有效的方法,使用户能够轻松理解人工智能模型的决策过程。
Dec, 2023
该论文提出了一种名为 Dynamic masks 的方法,结合动态扰动算子来产生一个基于实例的重要性得分,从而解决了机器学习模型预测解释的问题,该方法在医学和财务等领域广泛适用。
Jun, 2021
本研究提出了一种基于时序多元数据和可解释人工智能的反事实解释算法,该算法能够产生高质量、可视化、近距离和可信的反事实解释,帮助黑匣子模型的解释和决策过程可靠性的提升。
Aug, 2022