通过提取文本来生成短而连贯的理由 —— 根据规则确保足以做出准确预测的 —— 以代替不带理由的预测,该方法结合了生成器(分配文本碎片的候选理由)和编码器(用于预测)。从未给予判据,而是让模型符合对规则的要求。本文还在多方面情感分析和问题检索任务中成功验证了此方法。
Jun, 2016
本文提出了一种多阶段培训方法,将自我监督对比损失纳入其中,并证明可以帮助生成更多语义多样的理性化解释,从而改善了啤酒评论数据集的实验结果,并解决了互锁问题。
May, 2022
本文通过优化信息瓶颈(IB)目标的界限,提出了一种新的完全无监督方法, jointly 学习解释器和端任务预测器,通过可调的稀疏先验直接控制掩码的稀疏性水平。在 ERASER 基准任务上的实验表明,使用 IB 相比于 norm-minimization 技术,在任务性能和与人类理性的一致性方面都取得了显著的收益。此外,我们发现在半监督学习的情况下,对于训练样本的 25%的黄金理性,能够弥补使用完整输入的模型的差距。
May, 2020
为了解决深度学习模型输出不可解释的问题,我们提出了一种基于无监督选择性理性化的模型,在理性生成器和预测器上联合训练,有效限制了不合理理由产生,并在电影评论数据集上得到了明显的理性可信度和任务准确性提升。
May, 2023
提出一种自我解释模型 ConRAT,它从输入文本中提取概念,并使用关键概念的线性聚合来解释结果,以可解释性和预测性能方面超越了最先进的方法。
May, 2021
本研究提出了一种不同于传统管道式或强化学习方法的可微分训练框架,以在句子层面仅应用目标任务监督来输出具有可信度的原因,并在三个不同数据集上展示了竞争性表现和更好的性能。
Oct, 2020
本研究探讨了神经 NLP 模型的可解释性和鲁棒性之间的相互作用,试图通过有理化的过程来提高模型的鲁棒性,并针对五个不同的任务进行了实证评估。实验结果表明,理性模型有可能提高其鲁棒性,但它们在某些情况下会面临一定的挑战,并不总是表现得比无人为监督的模型更好。
Apr, 2022
该篇研究探讨了关于 NLP 中的可解释性或解释性是如何应用在法律文本中的,为了更好的满足用户的需求,我们提出了一种基于段落的理由提取的方法,并引入了一个新的数据集,对已有的规则进行了研究和探究。结果表明,该任务非常具有挑战性并需要深入研究。
Mar, 2021
我们提出了一种名为 REFER 的框架,利用可微分的 rationale extractor 来通过在训练过程中使用人工标注的重点提取训练任务模型和 rationale extractor,从而在忠实度、可信度和下游任务准确率方面显著提升性能。
Oct, 2023
通过在部分监督下基于自然语言推理模型对合理性解释模型进行了优化,无需访问真实标签,提高了性能,并实现了与监督提取模型相当的结果和优于无监督方法 100% 以上的性能。
Feb, 2024