本文提出了一种多阶段培训方法,将自我监督对比损失纳入其中,并证明可以帮助生成更多语义多样的理性化解释,从而改善了啤酒评论数据集的实验结果,并解决了互锁问题。
May, 2022
提出一种自我解释模型 ConRAT,它从输入文本中提取概念,并使用关键概念的线性聚合来解释结果,以可解释性和预测性能方面超越了最先进的方法。
May, 2021
我们提出了一种方法,将人类决策的解释性文本注释引入文本分类模型,从而提高模型解释的可信度,并通过多目标优化算法在性能和可信度之间达到平衡,从而显著提高模型解释的质量。
Apr, 2024
通过提取文本来生成短而连贯的理由 —— 根据规则确保足以做出准确预测的 —— 以代替不带理由的预测,该方法结合了生成器(分配文本碎片的候选理由)和编码器(用于预测)。从未给予判据,而是让模型符合对规则的要求。本文还在多方面情感分析和问题检索任务中成功验证了此方法。
Jun, 2016
提出了一种名为 FRESH 的简化模型解释方法,通过使用任意的特征重要性分数来导出二进制标签以训练提取器,再用提取器提供的片段训练独立分类器模块,从而构成可信解释,具有超越端到端方法的预测性能优势并更容易实现。
Apr, 2020
通过哲学角度和经验证据,本文提出神经理由模型的合理性和可解释性不如人们预期,并呼吁更加严密和全面的评估以确保达到所需的可解释性特性。
Oct, 2021
该研究探讨了自然语言理解中的可解释性问题,通过研究有理据的例子,并提出了一种能够联想标签和理由的度量方法,成功地验证了新的联合模型在生动文本解释方面的可信度。
Oct, 2020
提出了一种新的基于博弈论的分类依赖性理性化方法,其中的方法通过三个玩家的竞争寻找支持事实和反事实情景的证据来针对具体学科进行特别训练,并在单和多方面情感分类任务中进行评估。
Oct, 2019
本文提出基于两个辅助损失函数的方法,以更好地利用标签合理性远离的关键单词为目标 (PINs),并缓解非有用合理性的训练的冗余。两项代表性分类任务的实验表明,我们所提出的方法能够使分类模型有效地学习非完美 rationales 中关键的线索,同时保持将焦点扩展到其他重要未标记单词的能力,因此显著优于现有 methods。
Jun, 2021
本研究探讨了神经 NLP 模型的可解释性和鲁棒性之间的相互作用,试图通过有理化的过程来提高模型的鲁棒性,并针对五个不同的任务进行了实证评估。实验结果表明,理性模型有可能提高其鲁棒性,但它们在某些情况下会面临一定的挑战,并不总是表现得比无人为监督的模型更好。
Apr, 2022