- 在医疗记录中实现监督级可解释性的无监督方法
在这项研究中,我们提出了一种无需人工注释的方法来生成可信和忠实的解释。我们展示了对自动医学编码任务的对抗鲁棒性训练如何提高解释的可信度,并引入了一种比现有方法更好的新解释方法 AttInGrad。通过在完全无监督的设置中结合这两个贡献,我们 - 文本生成可解释性中的挑战与机遇
解释性在自然语言处理中的必要性随着大型语言模型的突出地位的不断提升而增加。该论文概述了在属性解释性方法的开发和评估过程中出现的 17 个挑战,包括词条化、定义解释相似性、确定词条重要性和预测变化度量、人类干预的水平以及适合的测试数据集的创建 - 研究科学连续领域重建中潜在表示的影响
学习稀疏采样下的连续可靠物理场表示的挑战及其影响是多学科的。本文提出了一种名为 MMGN(乘法和调制 Gabor 网络)的新模型,采用隐式神经网络。我们设计了额外的研究来增强对模型生成的潜在表示的理解,并采用了解释性方法。初步结果显示潜在表 - 基于影响力的多模态磁共振成像下脑肿瘤分割解释性
近年来,人工智能已成为医疗应用的基本工具。尽管存在快速发展,但深度神经网络仍然是难以解释的黑匣子,这是它们在临床实践中使用的主要限制。我们的重点是医学图像分割任务,目前提出的大多数可解释性方法在视觉解释方面提供输入显著性图。本文旨在扩展、实 - 大气状态估计中可解释的图神经网络对观测影响分析
本研究通过使用图神经网络(GNNs)和可解释性方法,研究了观测对天气预报系统中的大气状态估计的影响。我们将观测和数值天气预报(NWP)点整合到一个气象图中,提取以 NWP 点为中心的 k 跳子图。采用自监督的 GNNs 来聚合这些 k 跳半 - 推进可解释的自动驾驶车辆系统:综述与研究路线图
通过全面回顾已有文献,本研究对解释性任务、解释性信息和解释性信息沟通这三个主要话题进行了分类,提出了一个综合的研究路线图,旨在指导解释性自动驾驶车辆的开发和部署,以确保在用户需求、技术进步、合规性和伦理考虑等方面具有更安全和可信赖的自主驾驶 - COLING基于网络摄像头的凝视数据评估作为人类理由注释的替代方法
人的凝视数据在评估重要性评分时作为一种有效的替代品,能够提供有价值的语言洞察力,并且在解释方法的排名上与人工评估的理据相媲美。
- 通过黑盒概率认证的解释的可信区域
在这篇论文中,我们介绍了一个名为黑盒(概率)解释认证的新问题。我们通过给出一个黑盒模型、一个示例的解释以及一个质量度量(如逼真度和稳定性),问能否找到一个最大的超立方体(即以该示例为中心的 L∞球),使得当解释应用于超立方体内的所有示例时, - 视觉 Transformer 的可解释性:综述与新的观点
本研究探讨了用于视觉 Transformer 的不同解释性方法,并提出了根据其动机、结构和应用场景进行分类的分类法。此外,还提供了用于比较解释结果的综合评价标准,以及解释性工具和框架。最后,本文突出了可以增强视觉 Transformer 可 - 深度视觉特征的神经元解释破坏
通过统一的流程对神经元解释方法进行了首次的鲁棒性分析,揭示在探测数据中添加随机噪声和设计良好的干扰可以显著破坏这些解释,引发对神经元解释方法在现实应用中的安全和公平性的关切。
- EMNLP宁愿是护士也不是医生 -- 对比解释的调查研究
对四个英文文本分类数据集进行分析,通过三种不同规模的模型以及三种后期解释性方法,验证了模型解释和人类解释在对比性和非对比性设置下的一致性。
- GNNX-BENCH: 透过深入的基准测试揭示基于扰动的 GNN 解释器的实用性
该论文主要研究了解释性方法对图神经网络的作用,通过对扰动解释性方法进行评估和比较,发现某些方法在噪声存在时表现出较高的效果和稳定性,同时发现当前的反事实解释方法在特定领域的拓扑约束下存在可行性问题。该研究全面了解了图神经网络领域中最先进的解 - ICLRGInX-Eval:面向图神经网络解释的分布内评估
采用 GInX-Eval 评估程序,本研究揭示了解释性方法的限制,并提供了新的见解;结果表明,包括基于梯度的方法在内的许多流行方法产生的解释并不优于将边界随机选择为重要子图,这对当前领域的研究成果提出了质疑。
- 实验物理的可解释的多视角深度网络方法
本文提出了不同的多视角架构用于视觉领域,并介绍了一种解释这些模型的方法。通过实验结果,展示了准确架构选择对于泡沫样本质量分类的改善,并呈现了性能和可解释性之间的权衡。具体而言,我们证明了我们的方法能够解释单个单视角模型,从而增强了整体多视图 - 透过估计的团队实力以统计增强的学习预测手球比赛
我们提出一种统计增强学习(SEL)模型来预测手球比赛。我们的机器学习模型加上 SEL 特征,在准确率上超过了现有模型。我们展示了如何构建数据集,在过去的女子俱乐部比赛中训练机器学习模型。我们比较了不同的模型,并评估它们的性能能力。最后,解释 - ACLDARE:针对生物医学和医疗保健应用的强韧文本解释
本文旨在解决当前越来越普遍的深度神经网络 “黑匣子” 问题,介绍了如何适应不同领域的需求来提高解释方法的鲁棒性,并提供两种训练方法来缓解其脆弱性,最终通过实验证明了方法的有效性。
- 自动概念抽取和概念重要性评估统一的整体方法
提出概念为基础的方法可帮助我们解释人工神经网络的决策,介绍了一个理论框架,可以定义和澄清概念提取和重要性评估两个步骤,并尝试解决解释性中的一个关键问题:如何有效地识别以类似共享策略分类的数据点组成的簇。
- MM图神经网络可解释性调查
本文综述了现有的图神经网络可解释性技术,提出了分类方法并分别讨论了各类的优缺点、应用场景及评估指标,以协助研究人员和从业者了解现有的可解释性方法,识别不足并促进可解释性机器学习的进一步发展。
- ACL内部故事:迈向更好理解机器翻译神经评估指标
本文研究了神经度量与传统度量方法在评估机器翻译中的差异,并开发了多种神经可解释性方法来解释这些度量方法,并证明这些方法能够有效地分析翻译错误,促进未来的研究。
- 解释的普适性
本文提出了一种新的可解释性方法评估方法,从可泛化性的角度出发,使用自编码器学习生成解释的分布,并观察其可学性和学习分布特征的合理性;同时进行了 LIME 可解释性方法的直观演示,以及对多个流行可解释性方法的数量评估,并发现使用 Smooth