Captum: 一个统一通用的 PyTorch 模型可解释性库
Captum 是一个针对 PyTorch 的全面可解释性库,提供了从可解释性文献中借鉴的一系列方法,以增进用户对 PyTorch 模型的理解。本文介绍了在 Captum 中新增的针对分析生成型语言模型行为的功能,并提供了可用功能的概述以及其在理解生成型语言模型中学到的关联上的示例应用。
Dec, 2023
本文介绍了 $ exttt {time_interpret}$ 库,这是 Captum 的扩展库,专注于时间数据,并包括几种特征归属法和数据集,可以用于解释任何 Pytorch 模型的预测结果。
Jun, 2023
本文提出了一种名为 CAPE 的新型 CAM 方法,通过对图像区域的统一概率评估来改善 DNN 解释性,在 CUB 和 ImageNet 等数据集上与最先进的 CAM 方法进行了量化和定性比较,并在描绘具有挑战性的 CMML 诊断问题的细胞学成像数据集上进行了测试。
Apr, 2024
提出了一种基于上下文感知的注意力池化(CAP)方法和特征编码技术,可以有效地捕获子像素梯度,无需边界框和 / 或可区分的部分注释,从而学习关键部位的特征表示。经过在六个最先进的骨干网络和八个基准数据集上的评估,该方法在六个数据集上表现显著优于最先进的方法,并且在其余两个数据集上非常有竞争力。
Jan, 2021
本研究提出了一种交互式系统 Summit,它使用可扩展的汇总和可视化技术,发现和总结神经网络模型的功能和如何交互以做出预测,从而帮助用户将复杂深度学习模型转化为紧凑而易于理解的可视化,同时可以发现神经网络对于海量图片分类的表示学习进行多方面的分析和未来架构设计的指导。
Apr, 2019
本文系统性地评估了 Capsule Networks 的可解释性,并分析了 MNIST、SVHN、PASCAL-part 和 CelebA 数据集中编码的表示是否真正将部分整体关系编码在学习表示中,结果表明 CapsNets 中的表示可能并没有像文献中常常表述的那样解耦并且严格相关于部分整体关系。
May, 2023
提出了一种基于上下文信息的神经预测器(CAP),只需使用少量标注的架构进行训练,通过上下文结构和自监督任务获得表达丰富且具有泛化性的架构表示,从而在神经架构搜索中具有突出的性能表现,并在不同搜索空间以及 CIFAR-10 数据集上展现出导航搜索空间的有效性。
Jun, 2024
BayesCap 是一种内存效率高、可应用于各种架构和任务、能够提供预测的校准不确定性估计的方法,它为预训练的非贝叶斯计算机视觉模型提供了增强,同时不会降低模型性能或需要昂贵的重新训练模型,可以应用于图像处理、医疗图像翻译和自动驾驶等关键场景。
Jul, 2022
本篇论文提出了一种可解释的胶囊网络(iCaps)来处理图像分类问题,通过引入类别监督分离算法和额外的正则化方法解决了类别胶囊中存在的冗余信息和重叠表示的问题,并在三个数据集上进行了定量和定性的评估,证明 iCaps 分类器能够提供清晰的分类理由,且性能无损失。
Aug, 2020