解释性部分原型模型在设计上可解释的计算机视观模型。这篇论文回顾了现有研究,评估了解释性部分原型模型的解释质量,揭示了研究空缺,并概述了未来对解释性部分原型模型解释质量评估的方法。该论文旨在推进和成熟相对较新的解释性部分原型模型研究领域。此外,我们还提供了一个 “Co-12 小抄”,对评估部分原型模型的发现进行了简明概括。
Jul, 2023
使用 ProtoPNeXt 框架,结合贝叶斯超参数调整和角度原型相似度度量,有效提高了原始 ProtoPNet 在 CUB-200 上的准确性,同时优化了原型的可解释性,产生了具有显著改进的模型。
Jun, 2024
人工智能的解释方法对理解深度学习中的决策过程具有重要意义,通过研究对比了三种解释方法的可解释性,结果显示这些方法虽然强调的区域各不相同,但都能提供人类几乎相等的深度理解,进一步增强了这些方法在提升人工智能透明度方面的价值。
Oct, 2023
通过量化影响色调、形状、纹理、对比度和饱和度的视觉特征,提高基于原型的图像识别的可解释性。
Nov, 2020
通过原型评估框架 (PeF-C) 定量评估领域知识基础上的原型质量,我们首次系统评估使用我们的 PEF-C 定制的乳腺癌医学图像原型,发现原型质量有待改善以提高相关性、纯度和学习多样性。
Mar, 2024
通过使用根据预定义的分类法层次化组织的视觉原型模型,可以实现解释性地对图像进行分类,使得该模型能够对来自先前未见过的类别的图像进行解释性地分类。
Jun, 2019
本文探讨了可解释性机器学习在实际医学影像数据自动诊断支持方面的适用性和潜力,尤其是 PIP-Net 原型部分模型,对于骨折检测和皮肤癌诊断的准确性和可解释性进行了评估。
介绍了 ProtoPNet,一种深度神经网络架构,该模型通过识别图像的原型部分并将原型部分的证据结合起来,类似于鸟类学家、医生和其他人解决图像分类任务的方式,提供了一定程度的可解释性,并在 CUB-200-2011 数据集和 Stanford Cars 数据集上实现了可比较的准确性。
Jun, 2018
通过将训练模型的分类头部解构为一组可解释性零部件原型,我们提出了第一个用于事后解释的零部件原型网络,通过无监督原型发现和精化策略,确保模型的性能并提供更准确的解释和更好的零部件原型。
使用类原型的快速、模型无关方法可以找到分类器预测的可解释因果关系解释,并且该方法通过两个新的度量标准在实例级别上定量评估局部可解释性。该方法在图像数据集 MNIST 和表格数据集 Breast Cancer Wisconsin(Diagnostic)上得到了有效的验证,同时消除了由于数值梯度评估而产生的计算瓶颈。
Jul, 2019