- 评估视觉语言模型在双稳态图像上的表现
透过对 29 个双稳图像进行 116 种不同的亮度、色调和旋转处理,该研究广泛检查了使用双稳图像的视觉 - 语言模型。发现除了 Idefics 家族和 LLaVA1.5-13b 模型外,其他模型对于其中一种解释比另一种更倾向,并在图像处理中 - 关于标记数据和符号方法在隐藏神经元激活分析中的价值
通过解释隐藏神经元的激活来理解可解释人工智能是一个重要的挑战:准确的解释有助于回答深度学习系统内部检测输入中什么是相关的问题,揭示深度学习系统原本的黑盒特性。该论文介绍了一种新颖的与模型无关的可解释人工智能方法,通过使用约 200 万个类别 - 科学推理的特征重要性方法指南
该论文是一项关于解释性方法在机器学习中的应用的综合指南,通过对特征重要性方法进行广泛的回顾和对其解释的新证明,为我们提供了对这些方法的深入理解,并为科学推理提供具体的建议。此外,该论文还讨论了特征重要性不确定性估计的选项,并指出了从黑盒机器 - CVPR关于 Vision Transformer 解释的忠实性
通过引入 Salience-guided Faithfulness Coefficient(SaCo)评估指标,该研究探索目前人工智能模型解释能力的忠实度,并发现现有度量方法难以区分高级解释方法和随机归因,从而无法捕捉到其忠实度属性。相反, - 属性结构化改善基于 LLM 的临床文本摘要评估
通过 Attribute Structuring (AS) 框架对临床信息的综述进行评价和解释,从而提高临床文本摘要的质量和可靠性,实现资源受限情况下对临床信息的可信评估。
- GiMeFive:面部情绪分类的可解释性方法
GiMeFive 模型在面部情感识别上通过层激活和梯度加权类激活映射解释了其可靠性和预测性能,结果表明该模型在两个面部情感识别基准上的准确性优于现有方法,并通过真实图像、视频和实时摄像流进行了解释和验证。
- 大型语言模型中将翻译特定理解、一般理解对齐
通过将 LLMs 中的翻译特定理解与通用理解对齐,本研究提出了一种名为 xIoD 的新型翻译过程,通过难以翻译的词进行跨语言解释,并用生成的解释增强翻译效果,实验结果表明 xIoD 的有效性,提高了 3.85 COMET。
- 机器学习与敏感性分析之间的桥梁
我们认为机器学习(ML)模型的解释或模型构建过程可以被视为敏感性分析(SA)的一种形式,SA 是一种用于解释复杂系统的通用方法,可用于环境模拟、工程或经济等多个领域。我们旨在通过正式描述(a)ML 过程适合进行 SA 的系统性,(b)现有的 - EMNLP评估跨领域文本到 SQL 模型和基准
通过对几个重要的跨领域文本到 SQL 基准进行广泛的研究和重新评估,本文发现由于提供的样本可能有多个解释,这些基准的完美表现是不可行的,并且在重新评估后,模型的相对性能会发生变化。最令人瞩目的是,我们的评估发现,最近基于 GPT4 的模型在 - WALL-E 的想象力:为先进 AI 系统重构体验的想象力启发模块
介绍了一种受到哲学和精神分析概念启发的人工智能系统,利用想象力将文本输入与其他模态进行连接,从先前学习的经验中丰富所得信息。该系统具备独立感知输入的能力,导致概念的独特解释,虽然与人的解释可能不同但同样有效,该现象被称为 “可解释性误解”。 - 利用结构化背景知识和演绎推理理解 CNN 隐藏神经元激活
解释性人工智能中的一个重要挑战是如何正确解释隐藏神经元的激活:准确的解释可以揭示深度学习系统在输入上检测到的相关信息,解密了深度学习系统的黑盒特性。本文提供了一种基于大规模背景知识和概念归纳的符号推理方法的研究,旨在自动推断和验证隐藏神经元 - ICLR使用 Patch 奖励的视觉模仿学习
本文提出了一种使用图像局部区域的专业度来计算相应的奖励值的方法,即 PatchAIL。这种方法综合了奖励值并提高了训练的稳定性,能够在深度强化学习任务中提供有价值的解释性。
- ECCV基于摊余推断显著性图的解释驱动网络修剪
本文提出一种基于模型解释的方式对 CNNs 进行精简,在引入一个实时平滑的选择模型以及径向基函数(RBF)等经典几何先验和解释模型的参数化的方式下,通过最大化解释模型的相似性来引导网络裁剪,实现了对性能、精简度和解释一些重要指标的平衡。
- AAAI通过预测和解释来提高模型的稳健性的对抗训练
本文提出了一种名为 FLAT 的特征级对抗性训练方法,该方法旨在通过正则化全局词重要性分数来调节模型在替换词及其同义词的原始 / 对抗性示例对中的理解保持一致,从而提高模型对预测和解释方面的鲁棒性。
- IJCAIVisioRed: 可解释预测维护的可视化工具
本文介绍一种可视化工具,结合解释功能,用于展示基于时间序列数据训练的预测性维护模型导出的信息。
- AAAI机器生成的解释对普通用户有多有用?对于猜测错误预测标签的人类评估
研究使用机器生成的视觉解释是否有助于用户理解图像分类器产生的不正确标签,结果显示显示视觉解释实际上降低了约 10%的平均猜测准确率。
- 利用 ASR N-best 假设来提高口语理解
本文介绍了一些简单而有效的模型,以从自动语音识别模块获取的 N(N 为一个任意数)-best 解释中共同挖掘语音信号的语义信息,提高现代口语理解系统的性能。
- 随机种子对于模型稳定性的影响
本文旨在通过调查感知随机性对模型性能和鲁棒性的影响,将模型稳定性量化为随机种子的函数。我们特别研究了随机种子对注意力、基于梯度和替代模型的(LIME)解释行为的影响。我们提出了一种名为 ASWA(Aggressive Stochastic - ICLR神经网络预测的分层解释
引入聚合上下文分解的方法来解释 DNN 预测结果。该方法通过产生输入特征的层次聚类以及每个聚类对于最终预测的贡献,实现了对 DNN 的预测结果进行解释,有效诊断不正确的预测和识别数据集的偏倚。同时人体实验也表明,ACD 能够使用户较好地识别