- 自监督可解释的基于概念的文本分类模型
该研究论文提出了一种自监督可解释概念嵌入模型(ICEMs),通过利用大型语言模型的泛化能力,在自监督方式下预测概念标签,并通过可解释的函数提供最终预测结果。实验结果表明,ICEMs 可以以自监督方式进行训练,并达到类似于全监督概念模型和端到 - 大型语言模型的自动分子概念生成和标记
通过自动分子概念生成和标记的 AutoMolCo 框架,利用大型语言模型的知识自动产生预测性的分子概念,经过迭代与语言模型的交互进行概念细化,使得基于细化后的概念的简单线性模型在多个基准测试中的表现超过了 GNNs 和 LLM 上下文学习的 - LLM 模型的概念归纳:用于评估的用户实验
通过利用 GPT-4 的领域知识和常识能力,我们探索了大型语言模型在图像分类特定环境中生成高级概念作为人类解释的潜力,并通过人类研究评估了其有效性。
- 理解多模态深度神经网络:概念选择视角
通过两阶段的概念选择模型(CSM),本研究在观察到概念的长尾分布的基础上,提出了一种无需引入人为先验的核心概念挖掘方法,实验表明该方法在解释性和理解性方面可与黑盒模型相媲美。
- 基于概念的皮肤病诊断视觉语言模型的诠释性研究
基于视觉语言模型的嵌入学习策略可以在皮肤病诊断中减少对大量概念标注样本的依赖,提高准确性,并且比自动生成概念的特定方法所需的概念标注样本数量更少。
- 基于关系概念的模型
我们提出了一种解决关系领域中可解释深度学习模型设计问题的方法:关系概念模型(Relational Concept-Based Models)。实验结果表明,关系概念模型与现有的关系黑匣子模型在泛化性能上相匹配,并支持生成定量概念解释,有效地 - 选择性概念模型:允许利益相关者在测试时进行自定义
SCOMs 是一种选择性概念模型,可以由利益相关者在测试时根据其喜好自定义,使用较少的概念即可在多个真实世界数据集上实现最佳准确性,并可显著提高利益相关者的解释和干预效率。
- 可解释的神经符号概念推理
提出可解释的 Deep Concept Reasoner(DCR)模型,通过对概念嵌入的语义逻辑规则构建实现任务预测,从而在解释过程中提高了模型的可靠性和人类可信度。
- CVPR医学图像中基于一致性概念的解释及其在皮肤病诊断中的应用
本文提出了一种可解释性的深度学习模型在诊断黑色素瘤皮损方面的应用,该模型基于概念编码器和硬注意力机制及可视连贯性损失项进行优化,其结果表明该模型优于现有黑盒和概念模型。
- 基于概念的人工智能系统中的人类不确定性
通过研究概念为基础的模型,作者认为通过训练不确定的概念标签有助于减轻概念为基础的系统处理不确定干预时的弱点,从而披露了一些开放性挑战,并提到未来需要进行多学科研究来构建交互式的不确定性感知系统。
- AAAI理解和增强基于概念模型的鲁棒性
本研究旨在研究基于概念模型的鲁棒性和输出一致性的表现,提出并分析了不同的恶意攻击方式,并提出了基于对抗训练的防御机制,探讨了它们对模型在系统性扰动下的鲁棒性,发现所提出的防御方法可以提高概念模型的鲁棒性。
- AAAI面向基于概念模型调试的统一框架
在本篇论文中,我们探讨了灰盒概念模型(CBMs)的交互式调试,提出了一种简单的模式,用于人类监督者识别和优先处理模型中不同部分中的缺陷,并讨论了解决策略和问题,同时,我们还引入了一种新的损失函数来调试聚合步骤,推广了现有的黑盒模型对 CBM