分层概念发现模型:一个概念金字塔方案
通过对比性语言图像模型和单一稀疏线性层,我们提出了一个简单而直观的可解释框架,通过基于贝叶斯推理的数据驱动伯努利分布来实现框架中的稀疏性,相比相关方法,在准确性和每个样本概念稀疏性方面均表现出色,为新概念的个体研究提供便利。
Aug, 2023
通过在深度模型中主动注入知识,使用语义概念的层次树规范化图像数据实例的表达方式,提高模型可解释性,改善语义概念的分离,并不会对模型的分类性能产生负面影响。
Jul, 2023
本文介绍一种层次化概念瓶颈模型用于质量评估胎儿超声扫描图像,并在验证中得出了该模型在预测性能上的优势,并探讨了专家干预对提高预测性能的实际作用。
Nov, 2022
本文提出了一种基于概念瓶颈模型的新型可解释模型,集成了监督和无监督概念,减少了计算量,同时取得了比 CBM 和 SENN 更优异的实验效果,并可视化每个概念的显著性图,符合语义意义。
Feb, 2022
本研究中,我们提出了一种基于概率概念瓶颈模型(Probabilistic Concept Bottleneck Models,ProbCBM)的解释性模型,它可以通过建模概念预测的不确定性来提高可靠性和解释性。我们的方法不仅可以提供高水平的概念推导,还可以推断类不确定性。
Jun, 2023
通过建模概念间的依赖关系并引入分布参数化,提出了一种基于概念瓶颈模型的新方法,通过影响相关概念来提高干预效果,并展示了其在合成表格和自然图像数据集上显著提高干预效果的经验证据,同时还通过对 CLIP 推导的概念进行检验来展示 SCBMs 的多功能性和可用性,减少了人工概念注释的需求。
Jun, 2024
解读性是构建可靠模型的关键因素,通过利用人类可理解的概念作为中间目标,概念瓶颈模型(CBMs)实现了可解释的图像分类。我们提出了一种可视化激活评分,用于衡量概念是否包含视觉线索,通过利用未标记的图像数据简单计算,该评分用于筛选出含有视觉含义的重要概念,并在实验中验证了该方法的有效性。
Aug, 2023
提出了一种新的框架 Label-free CBM,能够将任何神经网络转换成可解释的 CBM,而无需标记的概念数据,且准确性高,并成功地将其扩展到 ImageNet 数据集上,整个创建过程只需要几个小时,未来能在实际的实际场景中大规模应用。
Apr, 2023