介绍了一种自我合理化的框架 RExC,旨在提供两种互补类型的解释(NLE 和提取合理),并将其与背景知识结合起来,从而达到了任务最新水平的性能,并大幅度领先于现有模型,同时进行干扰分析表明,解释与预测之间存在高度的关联性。
Jun, 2021
本文提出了一种可解释性的短语推理方法(EPR),通过无监督的逻辑推理来解释自然语言推理(NLI)模型。该模型使用深度学习模型来检测两个句子中对应的语义单元,并进行相应的逻辑推理,从而提高了模型的可解释性和可训练性。
Sep, 2021
我们提出了一种名为 REFER 的框架,利用可微分的 rationale extractor 来通过在训练过程中使用人工标注的重点提取训练任务模型和 rationale extractor,从而在忠实度、可信度和下游任务准确率方面显著提升性能。
Oct, 2023
在这项工作中,我们提出了一种通过信息校准和流畅关联提取语义信息的方法,成功地提取了辩解原因,并在情感分析、仇恨言论识别和法律方面的任务中证明了其有效性。
Jan, 2023
利用自训练语言模型进行多任务教师 - 学生框架,在有限的任务特定标签和理由下,通过精心选择样本学习信息伪标签示例以及明确合理化预测的特征,显著提高了神经模型的性能,特别在低资源环境中表现出有效性。
我们提出了一种方法,将人类决策的解释性文本注释引入文本分类模型,从而提高模型解释的可信度,并通过多目标优化算法在性能和可信度之间达到平衡,从而显著提高模型解释的质量。
Apr, 2024
研究如何使用先前经过训练的语言模型、神经知识模型和相关任务的远程监督等,通过训练生成解释原因的生成模型来推断自然语言解释。然而,结果表明,由于神经语言模型的基本限制,该模型生成的解释仅限于具有普遍性的陈述,而在进行推理的同时预测更新或其类型和生成理由是更具挑战性的,这是未来的重要方向。
Dec, 2020
本文介绍了一种基于信息校准的抽取原理提取方法,该方法首先使用神经模型解决特定任务,然后使用选择器 - 预测器模型提取来自神经模型的信息并产生对于预测的理由,通过基于对抗的技术来校准提取出的信息以提高效果。
本研究设计了一种提示策略,将多个 NLU 任务作为上下文蕴含进行推断,并提出了简单伪标签编辑算法(SimPLE)以提高自我训练的伪标签质量,在二分类和多分类分类任务上进行的实验表明,自我训练蕴含模型在语言理解任务上比大型语言模型更有效和可信。
May, 2023
通过扩展自然语言推理数据集并引入人工提供的自然语言解释,我们实现了能够学习人类提供解释的机器学习模型,并将其用于提高模型性能和确定其可靠性的研究。
Dec, 2018