深度 Taylor 分解的严格研究
该论文提出了一种新的方法对数据进行异常检测,首先将一类支持向量机模型重新组合成带距离函数和最小池化的神经网络,然后执行深度泰勒分解以解释模型预测结果。
May, 2018
本文介绍了一种新的方法来解释深度学习模型的分类决策,特别是在图像分类方面,该方法利用了所提出的深度泰勒展开技术,可以提高模型的可解释性并从输入元素的贡献中得出解释。
Dec, 2015
针对视频处理中的可解释 AI 问题,利用深度 Taylor 分解技术提出新的判别式相关模型,可以同时表示空间和时间上的重要性信息。
Aug, 2019
我们提出了一种多字典张量分解(MDTD)框架,利用编码字典中关于张量模式的先验结构信息来获得稀疏编码的张量因子。通过实验证明,MDTD 相比无字典方法学习到更简洁的模型,且在重构质量、缺失值插补质量和张量秩的估计等方面均具有明显的改进,而且不会增加运行时间。
Sep, 2023
本文应用拓扑数据分析的前沿技术,通过量化内部表示之间的差异和绘制网络层次结构图等方法,探索了用于图像分类的深度神经网络的可解释性,并提供了实验证据证明这些方法能够捕捉到有关模型过程的可贵结构信息。
Dec, 2022
本文通过在野外环境下的评估,研究了基于 Deep Taylor Decomposition 的标记归因模型,并发现其与经过 Gossip Corpus 微调的 RoBERTa-Large 协同使用可以提高专业记者的决策速度和决策质量,在决策过程中提高了对新闻来源的批判性。本文还进行了人类和模型理性的比较研究,并对记者们在机器辅助下决策过程的体验进行了定性分析。
May, 2022
该研究论文综述了六种张量分解方法及其在神经网络中的应用,说明使用这些方法可以明显地减少模型的大小,运行时间和能耗,在边缘设备上实现神经网络时效果显著。
Apr, 2023
这篇论文介绍了一种新的后门检测方法,它使用了两种张量分解方法应用于网络激活,相对于现有的检测方法具有多种优势,包括能够同时分析多个模型,适用于各种网络架构,对于改变网络行为的触发器不做任何假设,并且计算效率高。在 MNIST 手写数字数据集、CIFAR-10 数据集以及 NIST 的 TrojAI 比赛中的两个难数据集上,我们提供了检测流程的详细描述和结果。这些结果表明,相对于当前最先进的方法,我们的方法更准确、更高效地检测到了植入后门的网络。
Jan, 2024
通过引入离散字典分解层,我们改进了 Tensor Product Representation(TPR)框架,增强了神经网络的分解能力,提高了各种基于 TPR 的模型的系统推广能力。
Jun, 2024