本文提出了一种多阶段培训方法,将自我监督对比损失纳入其中,并证明可以帮助生成更多语义多样的理性化解释,从而改善了啤酒评论数据集的实验结果,并解决了互锁问题。
May, 2022
通过提取文本来生成短而连贯的理由 —— 根据规则确保足以做出准确预测的 —— 以代替不带理由的预测,该方法结合了生成器(分配文本碎片的候选理由)和编码器(用于预测)。从未给予判据,而是让模型符合对规则的要求。本文还在多方面情感分析和问题检索任务中成功验证了此方法。
Jun, 2016
提出了一种新的卷积神经网络模型,可以在文本分类和理解上进行监督学习,以推断支持文件分类的原因,从而提升分类性能,并且能够自然地为分类结果提供解释。
May, 2016
我们提出了一种方法,将人类决策的解释性文本注释引入文本分类模型,从而提高模型解释的可信度,并通过多目标优化算法在性能和可信度之间达到平衡,从而显著提高模型解释的质量。
Apr, 2024
本研究探讨了神经 NLP 模型的可解释性和鲁棒性之间的相互作用,试图通过有理化的过程来提高模型的鲁棒性,并针对五个不同的任务进行了实证评估。实验结果表明,理性模型有可能提高其鲁棒性,但它们在某些情况下会面临一定的挑战,并不总是表现得比无人为监督的模型更好。
Apr, 2022
介绍了一种自我合理化的框架 RExC,旨在提供两种互补类型的解释(NLE 和提取合理),并将其与背景知识结合起来,从而达到了任务最新水平的性能,并大幅度领先于现有模型,同时进行干扰分析表明,解释与预测之间存在高度的关联性。
Jun, 2021
文章分析了 2007-2022 年间自然语言处理领域合理化 (Rationalization) 技术的发展现状和存在的问题,提出了一种新的可解释人工智能技术领域 Rational AI (RAI) 并讨论未来的研究方向和挑战。
Jan, 2023
本文研究了自然语言处理中的模型可解释性,提出了一种基于输入擦除的灵活的特征评分和解释方法,与传统方法相比,可以更准确地为每个数据实例选择最优的特征评分方法、解释长度和类型,以提供更准确、全面和充足的解释。
Apr, 2021
这篇研究论文介绍了自动化理由生成的方法,训练神经理由生成器产生不同风格的理由,并通过两项用户研究验证用户对不同生成的理由的感知。
Jan, 2019
提出了概念解释的原则和求解算法 ACE,能够系统性地通过可视化概念提供对深度神经网络预测的重要性的人类可解释性解释。
Feb, 2019