通过提取文本来生成短而连贯的理由 —— 根据规则确保足以做出准确预测的 —— 以代替不带理由的预测,该方法结合了生成器(分配文本碎片的候选理由)和编码器(用于预测)。从未给予判据,而是让模型符合对规则的要求。本文还在多方面情感分析和问题检索任务中成功验证了此方法。
Jun, 2016
研究如何使用先前经过训练的语言模型、神经知识模型和相关任务的远程监督等,通过训练生成解释原因的生成模型来推断自然语言解释。然而,结果表明,由于神经语言模型的基本限制,该模型生成的解释仅限于具有普遍性的陈述,而在进行推理的同时预测更新或其类型和生成理由是更具挑战性的,这是未来的重要方向。
Dec, 2020
通过选择性理性化来提高神经网络可解释性,基于博弈论不变的理性化标准,对神经网络进行了解释,从而避免了虚假相关性,并使结果更易推广和符合人类判断。
Mar, 2020
本研究探讨了神经 NLP 模型的可解释性和鲁棒性之间的相互作用,试图通过有理化的过程来提高模型的鲁棒性,并针对五个不同的任务进行了实证评估。实验结果表明,理性模型有可能提高其鲁棒性,但它们在某些情况下会面临一定的挑战,并不总是表现得比无人为监督的模型更好。
Apr, 2022
本文介绍了一种自我训练方法,利用有标记和无标记数据进一步改进少样本模型的效果,并提出了一种新的损失函数 Masked Label Regularization(MLR),以促进解释与预测标签之间的紧密联系。在三个公共数据集上的评估表明,所提出的方法在建模任务标签和生成忠实的解释方面是有效的。
Jun, 2023
利用自训练语言模型进行多任务教师 - 学生框架,在有限的任务特定标签和理由下,通过精心选择样本学习信息伪标签示例以及明确合理化预测的特征,显著提高了神经模型的性能,特别在低资源环境中表现出有效性。
Sep, 2021
我们提出了一种名为快捷融合选择性合理化(SSR)的方法,它通过发现和利用潜在的快捷方式来增强合理化,通过将识别的快捷方式引入,减轻利用快捷方式来构成理由的问题,并开发两种数据增强方法来弥补注释理由数量上的差距。在真实世界数据集上广泛的实验结果明确验证了我们提出方法的有效性。
Mar, 2024
本文提出基于两个辅助损失函数的方法,以更好地利用标签合理性远离的关键单词为目标 (PINs),并缓解非有用合理性的训练的冗余。两项代表性分类任务的实验表明,我们所提出的方法能够使分类模型有效地学习非完美 rationales 中关键的线索,同时保持将焦点扩展到其他重要未标记单词的能力,因此显著优于现有 methods。
Jun, 2021
本文研究了合作理性化范式的一个主要问题 —— 模型交互锁定,提出了一种新的理性化框架 A2R,引入了一个被软注意力驱动的预测器,并在两个具有不同输入的预测器之间引入了 generator 来解决这个问题,并在实验中展示了相应的改进。
Oct, 2021
在这项工作中,我们提出了一种通过信息校准和流畅关联提取语义信息的方法,成功地提取了辩解原因,并在情感分析、仇恨言论识别和法律方面的任务中证明了其有效性。
Jan, 2023