- 研究和修订语言模型的输出:使用语言模型
提出了一种名为 RARR 的系统,它是一种修复文本生成模型输出的方法,并在最大限度保留原有输出的情况下修复不受支持的内容,该系统在要求较少的情况下可以有效地提高语言模型的归因。
- 在野外对微调语言模型进行指纹识别
研究社区正在积极开发检测给定文本是有机的还是合成的方法,本文则聚焦于探讨如何对精细调整的语言模型进行指纹识别以确定其来源,并通过实验结果表明,精细调整本身是确定合成文本来源的最有效方法。
- IJCAI责任分配的博弈论解释
该研究考虑多智能体系统中的责任分配问题,通过建立不完全信息的广义博弈模型,定义前向责任,后向策略与因果责任概念,并通过合作博弈理论给出了定量责任估计方法。
- ACL对话系统归因的评估: BEGIN 基准测试
该研究提出了用于评估基于知识的对话系统质量的 BEGIN 基准,该基准由 12k 条对话数据组成,评估了 8 个评估指标,结果发现这些指标过度依赖并不可靠,在长文本下表现更差,说明需要更加精细和强健的评估指标。
- AAAI对抗攻击归因:发现对抗机器学习攻击中的可归因信号
通过简单的监督式学习实验平台,发现在 CIFAR-10 和 MNIST 数据集中,可以区分使用不同攻击算法、模型和超参数生成的对抗攻击,并介绍了对抗攻击归因的概念。
- ACL通过归因驱动的洞见探索 VQA 模型的弱点
本研究分析了基于 Deep Neural Networks 的 Visual Question Answering 模型在真实场景中的应用及其受到问题输入变化的影响,并通过属性的视角对其进行了实验和对比,提出了对抗性攻击的方法,以增强系统对 - CVPR可解释准确的细粒度识别:区域分组方法
本研究提供了一种可解释的深度模型,通过在深层神经网络中将基于区域的部件发现和归因结合起来实现细粒度视觉识别,并通过图像级对象标签进行训练,可以有效地识别图像中的对象部件,提高细粒度识别和对象部件定位的准确性。
- 通过针对输入的网络剪枝改进特征归因
本研究提出一种通过对神经网络进行输入删减以生成细粒度贡献图的方法,该方法可以反映出全局重要性信息,并通过实验验证表明其效果优于其他方法。
- ICCV通过极值扰动和平滑蒙版理解深度网络
本文探讨了现有扰动分析方法的一些缺点,并通过引入理论上坚实和可解释的极值扰动的概念来解决这些缺点。我们还介绍了一些技术创新来计算极值扰动,包括一个新的面积约束和一个参数化的平滑扰动系列,这些使我们能够从优化问题中去除所有可调超参数。我们分析 - 神经元有多重要?
本文介绍了使用 “conductance” 来理解深度网络中隐藏层每个神经单元的重要性,通过多种方式从理论和实证的角度验证其有效性
- ACL模型是否理解问题?
本文通过对深度学习模型的问答能力进行分析,引入了词汇重要性的概念,并借此来对问题进行扰动,从而建立对模型的评估及攻击。该方法可通过突出模型在正确率、逻辑、数据等方面的不足,提高模型的推理及总体性能表现。
- (不) 可靠的显著性方法
本文探讨了深度神经网络的显著性方法在解释模型预测时的可靠性问题,提出了保证输入不变性的要求,并举例说明了不满足此要求的方法可能导致错误归因。
- AAAI基于论证的安全技术促进社会利益
介绍了一个基于论证推理的解决方案,用于在缺乏上下文信息的情况下,解决网络攻击归属及数据共享的监管问题。
- 深度神经网络公理归因
本文研究了深度网络输入特征对预测的影响,提出了敏感性和实现不变性两个公理,并指出大部分已知的边缘归因方法并不满足这两个公理。最后,作者设计了一种不需要修改原始网络的全新边缘归因方法 —— 集成梯度,并将其应用于图像、文本和化学模型中。结果表 - 基于图形的异常检测和描述:一项调查
本文综述了最新的用于检测以图形表示的数据中异常值的方法和算法,包括在不同场景下的无监督和(半)监督方法,以及针对属性和普通图的静态和动态图。作者强调了异常归因的重要性,并介绍了根据检测到的异常挖掘其根本原因的技术。除此之外,作者还列举了金融