本文介绍了一种基于信息校准的抽取原理提取方法,该方法首先使用神经模型解决特定任务,然后使用选择器 - 预测器模型提取来自神经模型的信息并产生对于预测的理由,通过基于对抗的技术来校准提取出的信息以提高效果。
Dec, 2020
通过在部分监督下基于自然语言推理模型对合理性解释模型进行了优化,无需访问真实标签,提高了性能,并实现了与监督提取模型相当的结果和优于无监督方法 100% 以上的性能。
Feb, 2024
介绍了一种自我合理化的框架 RExC,旨在提供两种互补类型的解释(NLE 和提取合理),并将其与背景知识结合起来,从而达到了任务最新水平的性能,并大幅度领先于现有模型,同时进行干扰分析表明,解释与预测之间存在高度的关联性。
Jun, 2021
通过提取文本来生成短而连贯的理由 —— 根据规则确保足以做出准确预测的 —— 以代替不带理由的预测,该方法结合了生成器(分配文本碎片的候选理由)和编码器(用于预测)。从未给予判据,而是让模型符合对规则的要求。本文还在多方面情感分析和问题检索任务中成功验证了此方法。
Jun, 2016
本研究探讨了神经 NLP 模型的可解释性和鲁棒性之间的相互作用,试图通过有理化的过程来提高模型的鲁棒性,并针对五个不同的任务进行了实证评估。实验结果表明,理性模型有可能提高其鲁棒性,但它们在某些情况下会面临一定的挑战,并不总是表现得比无人为监督的模型更好。
Apr, 2022
提出一种自我解释模型 ConRAT,它从输入文本中提取概念,并使用关键概念的线性聚合来解释结果,以可解释性和预测性能方面超越了最先进的方法。
May, 2021
我们提出了一种名为 REFER 的框架,利用可微分的 rationale extractor 来通过在训练过程中使用人工标注的重点提取训练任务模型和 rationale extractor,从而在忠实度、可信度和下游任务准确率方面显著提升性能。
Oct, 2023
研究如何使用先前经过训练的语言模型、神经知识模型和相关任务的远程监督等,通过训练生成解释原因的生成模型来推断自然语言解释。然而,结果表明,由于神经语言模型的基本限制,该模型生成的解释仅限于具有普遍性的陈述,而在进行推理的同时预测更新或其类型和生成理由是更具挑战性的,这是未来的重要方向。
为了解决深度学习模型输出不可解释的问题,我们提出了一种基于无监督选择性理性化的模型,在理性生成器和预测器上联合训练,有效限制了不合理理由产生,并在电影评论数据集上得到了明显的理性可信度和任务准确性提升。
May, 2023
通过使用无监督生成模型进行反事实数据增强,降低 MMI 方法在挑选文本方面的性能,从而更好地捕捉感兴趣的信号,并提高基于解释性自然语言处理(NLP)的合理性模型的性能。
Jan, 2022