通过建模概念间的依赖关系并引入分布参数化,提出了一种基于概念瓶颈模型的新方法,通过影响相关概念来提高干预效果,并展示了其在合成表格和自然图像数据集上显著提高干预效果的经验证据,同时还通过对 CLIP 推导的概念进行检验来展示 SCBMs 的多功能性和可用性,减少了人工概念注释的需求。
Jun, 2024
本研究介绍后续概念瓶颈模型(PCBM),它可以将任何神经网络转换为具有解释性的概念瓶颈模型,无需在训练数据中密集注释概念,同时保持模型性能和解释性优势。PCBM 还可以从其他数据集或自然语言描述中通过多模式模型转移概念,从而实现全局模型编辑。通过用户研究表明,通过概念层反馈编辑 PCBM 可以在不使用目标域或模型重新训练的数据的情况下,显著提高性能。
May, 2022
传统的深度学习模型缺乏解释性,概念瓶颈模型(CBMs)通过其概念表示提供内在解释。本文提出了概念瓶颈记忆模型(CB2M),通过两重记忆,CB2M 能够在新情境中学习推广干预,纠正模型的预测结果,从而自动改进模型性能。实验结果表明 CB2M 可以成功地推广到未见数据并识别错误的概念,是用户提供 CBM 互动反馈的一种有效工具。
Aug, 2023
本研究中,我们提出了一种基于概率概念瓶颈模型(Probabilistic Concept Bottleneck Models,ProbCBM)的解释性模型,它可以通过建模概念预测的不确定性来提高可靠性和解释性。我们的方法不仅可以提供高水平的概念推导,还可以推断类不确定性。
Jun, 2023
我们提出了基于能量的概念瓶颈模型(ECBMs),通过使用一组神经网络定义候选(输入、概念、类别)元组的联合能量,以解决现有概念瓶颈模型存在的限制,提供更高的准确性和更丰富的概念解释。
Jan, 2024
通过使用数学严谨的闭合形式近似和影响力函数,我们提出了可编辑的概念瓶颈模型(ECBMs),以解决从头重新训练的困境,实现高效率的数据删除和插入操作,从而适应大规模应用中的数据处理需求。
May, 2024
提出了一种新的框架 Label-free CBM,能够将任何神经网络转换成可解释的 CBM,而无需标记的概念数据,且准确性高,并成功地将其扩展到 ImageNet 数据集上,整个创建过程只需要几个小时,未来能在实际的实际场景中大规模应用。
Apr, 2023
本文提出了一种基于概念瓶颈模型的新型可解释模型,集成了监督和无监督概念,减少了计算量,同时取得了比 CBM 和 SENN 更优异的实验效果,并可视化每个概念的显著性图,符合语义意义。
Feb, 2022
我们提出了递增残差概念瓶颈模型(Res-CBM),以解决概念完整性的挑战。通过优化向量来完成缺失的概念,并将不明确含义的补充向量转化为候选概念库中的潜在概念,以增强任何 CBM 的性能。实验结果表明,Res-CBM 在准确性和效率方面优于当前最先进的方法,并在多个数据集上实现了与黑盒模型相当的性能。
Apr, 2024
该研究论文通过引入可训练的概念干预调整模块,利用概念关系重定位干预后的概念分配,从而显著提高干预效果,并且能够降低人机协作成本。