可解释的时间序列神经表示用于分类目的
提出了一种针对高维时间序列数据的离散表征学习框架,通过整合可解释性离散降维和深度生成建模方法,得到在可解释性和聚类性能方面优异的平滑嵌入表征,基于自组织映射算法和马尔科夫模型实现了离散表征的概率化解释和进一步优化,实验结果显示其表现比竞争方法更好。
Jun, 2018
本研究提出了 Neuro-Symbolic Time Series Classification(NSTSC),一种神经符号模型,借助信号时间逻辑(STL)和神经网络(NN)来完成多视图数据表示的时间序列分类任务,并将模型表达为可读性强的可解释式公式。NSTSC 采用决策树方法学习公式结构并实现多类别 TSC 任务,可以生成与领域知识相符的可解释公式。
Sep, 2022
一篇研究时间序列的多变量预测的可解释神经网络模型,通过循环神经网络学习数据的时间依赖性,配合基于注意力的特征选择组件来选择最相关和抑制冗余的特征,通过独立训练选定特征的模块化深度网络,展示特征对结果的影响,从而使模型可解释。实验结果表明,该方法在时间序列的回归和分类任务中优于现有的可解释神经加性模型(NAM)及其变体,且达到与时间序列的非可解释方法 LSTM 和 XGBoost 相媲美的预测性能。
Nov, 2023
本文提出了一种新颖的方法来评估时间序列分类的可解释性方法的性能,并提出一种评估领域专家和机器数据解释相似性的策略。该方法使用一系列新的合成数据集,并引入新的可解释性评估指标。该方法解决了文献中遇到的几个常见问题,并清楚地说明可解释性方法如何捕捉神经网络的数据使用情况,提供了一个系统的可解释性评估框架。新方法突出了 Shapley Value Sampling 和 Integrated Gradients 在时间序列分类任务中的可解释性优势。
Feb, 2022
本文介绍了一种新的框架,通过提取和聚类高度激活 CNN 神经元的输入表征模式来解释多元时间序列数据,以捕获输入信号的作用和依赖关系,并构建一个捕获每层提取模式的时间关系的图形,最后使用图形嵌入算法生成可解释的时间序列特征表示。通过在 8 个 UCR/UEA 归档数据集以及 HAR 和 PAM 数据集上运行广泛的实验,证明了我们的时间感知基于图形的表征在 MTS 分类中具有明显优势,并丰富了它们的可解释性。
Jun, 2023
本篇论文介绍了基于反向传播、扰动和近似等后处理方法的时间序列模型后解释的广泛范围。我们提出了内在可解释模型的新颖类别,并介绍了用于说明的常见评估指标及时间序列可解释性问题未来研究的方向。
May, 2023
该研究提出了一个包含六个度量标准的框架,可以用于评估时间序列分类和分割任务中的可视化解释方法的可靠质量度量,并评估了多种流行神经网络架构在不同数据集上的表现,从而为领域专家提供选择适当可视化技术的建议。
Mar, 2022
本文介绍了比较评估高维时间序列数据模型可解释性的方法,使用了常用的教育和医疗培训模拟中的日志数据,设计了两种解释性测试,评估模型输出与人们对模拟发生的期望或直觉的一致程度,发现完全贝叶斯方法在统计和人类可解释性测试的性能方面表现良好,是完全自动化模型选择的一个良好的选择。
Sep, 2019
本文介绍了一种结构化语言模型,该模型将符号概率模型和神经网络相结合,以提高文本分类性能,并能够在自我监督的方式下学习预测组合树,仅需要原始文本和句级标签作为训练数据,从而具有一定的自我解释性。实验结果表明,本方法在下游任务中能够取得良好的预测准确性,同时预测的跨度标签与人类的推理有一定的一致性。
Mar, 2023