利用超网络生成可解释的网络
本文提出了内在可解释的 PHNNs 和矩形网络,并使用 PHB-cos 变换方法对参数化超复域进行解释。对超复型网络进行了深入分析,发现其倾向于将注意力集中在感兴趣的目标形状及其周围的形状上。
Mar, 2024
本文提出了一种新的解释性神经网络框架,可以生成自然语言的分类解释,试图弥合人类推理和深度神经网络推理相差的鸿沟。该模型在 CUB 鸟类分类和解释数据集上获得了 METEOR 分数 37.9,为目前最高水平。
Oct, 2017
本文介绍了一种名为 Agglomerator 的框架,它可以通过视觉线索提供部分 - 整体层次结构的表示,并组织与类别之间的概念语义层次结构相匹配的输入分布,从而提高神经网络的可解释性。作者在 SmallNORB、MNIST、FashionMNIST、CIFAR-10 和 CIFAR-100 等常见数据集上进行了评估,并提供了比其他最先进方法更易解释的模型。
Mar, 2022
本文探讨使用一种网络 (称为超网络) 生成另一种网络 (称为主网络) 权重的超网络方法。超网络可应用于图像识别和序列建模任务,微调权重且性能相较于目前流行的基准模型更接近最佳效果。
Sep, 2016
本文综述了神经网络的可解释性研究,详细阐述了可解释性的定义、重要性、以及基于不同维度的新颖分类方法(如主动 / 被动解释方法、从局部到全局的解释等)。最后还总结了当前可解释性评估方法,并提出了新的研究方向。
Dec, 2020
本文回顾了超过 300 种内部可解释性技术,并引入了一种分类方法,介绍了它们对神经网络的什么部分(权重、神经元、子网络或潜在表示)进行解释,以及它们是在训练期间(内在)还是在训练后(事后)实现的。这篇文章强调了诊断、调试、敌对性和基准测试在未来研究中的重要性,以便使可解释性工具在实际应用中更有用。
Jul, 2022
本文提供了一个现有方法的回顾,以开发具有内在可解释性的 DNN,重点关注卷积神经网络 (CNNs),旨在了解向完全可解释 DNN 的当前进展,并确定当前工作中的差距和潜在研究方向。
Jun, 2021
高维神经网络通过理解机制可解释性的视角提供对低维表示的洞察力,并从中获得人类领域知识的相关见解。通过研究训练用于重现核数据的模型,我们提取出核物理概念作为一个案例研究。
May, 2024
本文综述了神经网络的解释工具和算法,提出了一种新的分类方法,介绍了解释结果的评估方法和信任度算法的应用,讨论了深度模型解释与鲁棒性和借鉴解释的联系,并介绍了一些开源库。
Mar, 2021
该研究提出了一种使用新方法训练的深度超网络来生成可解释的线性模型的方法,以保留黑匣子深度网络的准确性并提供自由的可解释性,而需要与黑匣子深度模型相同的运行时和内存资源,实现了实用性,实验结果表明,该可解释的深层网络在表格数据上与最先进的分类器一样准确,且在实际预测中也具有与最先进的解释技术相当的解释能力。
May, 2023