在本文中,我们提出了基于 Transformer 模型的针对图数据的精细化干预策略,利用自注意力模块实现节点级和虚拟节点级的干预,并在 7 个真实世界数据集上进行了广泛实验,结果显示我们提出的不变图 Transformer (IGT) 相对于 13 种基准方法具有显著的性能优势。
Dec, 2023
通过多样化训练分布、提取关键因子和知识蒸馏等方式,本文提出了一种协作分类和合理化方法(C2R),在图像分类任务中有效解决了图神经网络在面对分布外数据时的泛化问题。
Mar, 2024
论文提出了使用基于 rationale 的 ensemble 模型来提升自然语言处理任务的性能和可解释性。
Jul, 2022
研究如何使用先前经过训练的语言模型、神经知识模型和相关任务的远程监督等,通过训练生成解释原因的生成模型来推断自然语言解释。然而,结果表明,由于神经语言模型的基本限制,该模型生成的解释仅限于具有普遍性的陈述,而在进行推理的同时预测更新或其类型和生成理由是更具挑战性的,这是未来的重要方向。
Dec, 2020
通过实证分析人类解释的两个特点,即最大化理性监督准确性未必是提高模型准确性的最佳目标和人类理性是否提供足够信息以供模型进行预测,我们在此基础上提出了几种新的损失函数和学习策略,在三个包含有人类理性的数据集上进行评估,结果显示出了不断改进的基线,包括 MultiRC 上的 3% 精度提高。我们的研究强调了理解人类解释的特性,并据此进行模型训练的重要性。
Nov, 2021
通过选择性理性化来提高神经网络可解释性,基于博弈论不变的理性化标准,对神经网络进行了解释,从而避免了虚假相关性,并使结果更易推广和符合人类判断。
Mar, 2020
本文介绍了首个以生成自然语言解释为中心的研究,该研究关注复杂的视觉推理任务,包括视觉常识推理、视觉文本蕴含和视觉问答。文章提出了 Rationale^VT Transformer,该模型通过结合预训练的语言模型、对象识别、基于视觉的语义框架和视觉常识图生成自由文本解释,实现了全面的图像理解,并且实验证明,自然语言解释是用于复杂视觉 - 文本推理任务的一种具有前景的研究方向。
Oct, 2020
通过提取文本来生成短而连贯的理由 —— 根据规则确保足以做出准确预测的 —— 以代替不带理由的预测,该方法结合了生成器(分配文本碎片的候选理由)和编码器(用于预测)。从未给予判据,而是让模型符合对规则的要求。本文还在多方面情感分析和问题检索任务中成功验证了此方法。
Jun, 2016
提出了一种新的发现不变因果解释的策略来构建固有可解释性的图神经网络,在合成数据集和实际数据集上的实验证明了该策略在图分类方面的可解释性和广义能力优于现有的基线模型。
Jan, 2022
本研究探讨了神经 NLP 模型的可解释性和鲁棒性之间的相互作用,试图通过有理化的过程来提高模型的鲁棒性,并针对五个不同的任务进行了实证评估。实验结果表明,理性模型有可能提高其鲁棒性,但它们在某些情况下会面临一定的挑战,并不总是表现得比无人为监督的模型更好。
Apr, 2022