ProtoS-ViT:稀疏自解释分类的视觉基础模型
本文针对 prototypical part network 在 vision transformer 上的应用存在的 “干扰” 问题,提出了 prototypical part transformer 方法,引入全局和局部原型来捕捉和突出目标的代表性整体和部分特征,并通过显式监督控制局部原型,从而提高整体的可解释性与表现。
Aug, 2022
ProtoTEx 是一种基于原型网络的新型白盒 NLP 分类体系结构,其通过原型张量解释模型决策,可在处理没有代表性特征的类别时有效地处理,可精准检测网络新闻中的宣传,并通过原型解释帮助非专业人士更好地识别宣传。
Apr, 2022
使用 ProtoPNeXt 框架,结合贝叶斯超参数调整和角度原型相似度度量,有效提高了原始 ProtoPNet 在 CUB-200 上的准确性,同时优化了原型的可解释性,产生了具有显著改进的模型。
Jun, 2024
本文提出了一个基于概念的后续解释 AI 框架,通过原型模型不仅传达了每个实例的决策策略 (局部),而且还传达了整体的类别决策策略 (全局),从而降低了对人类长期评估的依赖,并使模型验证成为一个直观且可解释的工具。
Nov, 2023
这篇论文提出了 Vision transformers(ViTs)在解释方法方面的需求,通过引入概率概念解释器(PACE)来提供可信的事后概念解释,并通过实验表明 PACE 在定义的需求方面优于现有方法。
Jun, 2024
介绍了 ProtoPNet,一种深度神经网络架构,该模型通过识别图像的原型部分并将原型部分的证据结合起来,类似于鸟类学家、医生和其他人解决图像分类任务的方式,提供了一定程度的可解释性,并在 CUB-200-2011 数据集和 Stanford Cars 数据集上实现了可比较的准确性。
Jun, 2018
介绍了 Proto-BagNets,一种可解释性设计的基于原型的模型,结合了局部特征模型和原型学习的优势,为准确和可解释的图像分类任务提供了有意义、连贯和相关的原型部分。在公开可用的视网膜 OCT 数据上对 Proto-BagNet 进行了玻璃体腔检测的评估,Proto-BagNet 在提供忠实、准确和临床有意义的局部和整体解释的同时,与最先进的可解释和不可解释模型的性能相当。
Jun, 2024
我们介绍了原型生成,一种更严格和更健壮的特征可视化方法,用于针对模型不可知、数据独立的图像分类模型的解释性。我们展示了其生成能力,可以产生自然激活路径,从而反驳以往特征可视化算法由于不自然的内部激活而不可信的说法。我们通过定量测量生成的原型和自然图像的内部激活之间的相似性来支持这些说法。我们还展示了如何解释生成的原型所产生的重要见解,突出模型学习到的虚假相关性和偏见,这是定量方法在测试集上无法识别的。
Sep, 2023
探索了一种名为 Proto-Caps 的创新解决方案,它能够利用额外的训练过程中可用的信息来创建一个易理解且功能强大的模型,通过在 LIDC-IDRI 数据集上的评估,该方法结合了更强的可解释性和先进的预测性能,相较于可解释的基线模型,在预测恶性程度(93.0%)和肺结节的平均特征方面,我们的方法提高了超过 6% 的准确率,并同时提供了基于案例的推理和可视化验证放射学定义的特征。
Oct, 2023