概念嵌入分析:综述
最近的研究关注点已经从简单地提高深度神经网络(DNNs)在各种任务中的性能转向了更具人可解释性的 DNNs。人工智能解释性领域已经观察到了包括基于显著性和基于概念的技术。概念是人类可理解的数据单元,是人类思考的基础。本文系统地回顾和分类了 DNNs 中各种概念表示及其发现算法,特别是在视觉领域。同时也提供了关于基于概念的模型改进文献的详细信息,这是第一个调查基于概念的模型改进方法的研究。
Mar, 2024
黑盒深度神经网络 (DNNs) 的质量保证变得越来越重要,特别是在自动驾驶等安全关键领域。通过将全局概念编码与单个网络输入的局部处理联系起来,我们提出了一个名为全局到局部概念归因 (glCA) 的框架,利用局部可解释人工智能 (xAI) 的方法来测试 DNNs 在预定义的语义概念上的局部性。该方法可以将局部、事后解释与在模型的潜在空间中以线性方向编码的预定义语义概念相条件联结。关于全局概念使用的像素精确评分有助于理解模型处理所选概念单个数据点的方式。我们的方法具有全面覆盖语义概念的模型内部编码和定位相关概念相关信息的优势。结果显示在局部感知和使用个别全局概念编码方面存在重大差异,并需要进一步研究以获得全面的语义概念编码。
May, 2024
基于概念的可解释人工智能利用经验性定义的概念和通用知识图谱,为用户提供个性化的解释方式,并通过基于经验概念数据集的概念激活向量和概念激活区域方法来提供稳健准确的解释。
Apr, 2024
该篇论文综述了深度神经网络在机器学习中的应用,针对一些需要保证安全性的决策(如控制系统和医疗应用),介绍了当前解释性人工智能(XAI)领域的研究,探究和解释 DNNs 内部和整体行为的方法。
Feb, 2021
通过引入 Concept-Attention Whitening(CAW)框架,我们提出了一种用于解释性皮肤病变诊断的新方法。CAW 不仅提高了可解释性,还保持了最先进的诊断性能。
Apr, 2024
该研究审查了通过提出分类法来将人类可理解的概念与神经网络中的内部表示相对应的研究,并发现了与模型可解释性目标有关的文学研究中的歧义,即是理解机器学习模型还是在部署领域有用的可行解释。
Dec, 2022
该论文研究了如何利用深度学习神经网络中学习到的内在特征,利用概念分析方法和归纳逻辑编程理论,构建基于符号的模型,实现黑盒机器学习的可解释性,体现其透明度和可靠性的要求。
May, 2021
本研究提出了一种基于类别关联嵌入的方法来进一步优化可解释人工智能(XAI),并在医学图像分类任务中证明其有效性,该方法利用了循环对抗性学习策略,通过生成具有相同个体特征但不同类别分配的中间类别样本,优化类别特征区分度,并从对立分类的路径中提取过渡规则以达到更好的可解释性。
Jun, 2023