通过量化影响色调、形状、纹理、对比度和饱和度的视觉特征,提高基于原型的图像识别的可解释性。
Nov, 2020
本研究提出了神经原型树(ProtoTree)方法,将原型学习与决策树相结合,从而通过设计在全局上产生可解释的模型。此外, ProtoTree 可以通过在树中勾勒一个决策路径来在本地解释单个预测并通过集成方法、修剪和二值化调整准确性与可解释性的权衡。
Dec, 2020
通过在深度模型中主动注入知识,使用语义概念的层次树规范化图像数据实例的表达方式,提高模型可解释性,改善语义概念的分离,并不会对模型的分类性能产生负面影响。
Jul, 2023
构建鲁棒且可解释的视觉系统是实现可信人工智能的重要步骤。本研究从理论、实践和应用角度系统地研究了层次不变性,并提出了一种使用卷积神经网络(CNN)层次结构构建超完备不变性的可解释方法。通过实验证明,该方法在纹理、数字和寄生虫分类等实验中展示了准确性、不变性和效率。对于规模更大的鲁棒且可解释的视觉任务,层次不变性表示是传统 CNN 和不变性的有效替代。
Feb, 2024
介绍了 ProtoPNet,一种深度神经网络架构,该模型通过识别图像的原型部分并将原型部分的证据结合起来,类似于鸟类学家、医生和其他人解决图像分类任务的方式,提供了一定程度的可解释性,并在 CUB-200-2011 数据集和 Stanford Cars 数据集上实现了可比较的准确性。
Jun, 2018
使用可解释的部分原型网络作为黑盒图像分类器的替代方法来评估可解释性的框架和实验
Oct, 2023
本文介绍了一种基于层次化视觉数据结构的图像分类方法,该方法利用层次聚类创建了可变长度的视觉树,从而更准确地进行分类。该方法在 ILSVRC2010 和 Caltech 256 基准数据集上获得了显著更好的分类准确率。
Sep, 2017
本文提出了一种新的 Hierarchical INTerpretable 神经文本分类器 Hint,它可以自动生成按标签关联的话题的模型预测解释,实验结果表明 Hint 方法在文本分类方面不仅与现有的最先进的文本分类器相当,而且生成的解释比其他可解释的神经文本分类器更符合模型预测,并且更易于被人类理解。
Feb, 2022
本文提出一种可解释的网络模型 Hierarchical ProtoPNet,该模型通过考虑类别之间的层次关系来解释其推理过程,并在视频动作分类领域中应用,提出了一种多级解释的方法。在 ActivityNet 和 UCF-101 数据集上实验证明该方法能够提高性能。
Jan, 2023
我们提出了一种将 CLIP 与图表示学习相结合以更深入地利用分层类结构的新框架(HGCLIP),通过将类层次结构构建成一个图,其中其节点代表每个类别的文本或图像特征,通过图编码器,文本特征结合了分层结构信息,而图像特征通过注意机制强调了从原型派生的类别感知特征,我们的方法在通用和细粒度视觉识别基准上均取得了显著的改进。
Nov, 2023