提出一种自我解释模型 ConRAT,它从输入文本中提取概念,并使用关键概念的线性聚合来解释结果,以可解释性和预测性能方面超越了最先进的方法。
May, 2021
本研究探讨了神经 NLP 模型的可解释性和鲁棒性之间的相互作用,试图通过有理化的过程来提高模型的鲁棒性,并针对五个不同的任务进行了实证评估。实验结果表明,理性模型有可能提高其鲁棒性,但它们在某些情况下会面临一定的挑战,并不总是表现得比无人为监督的模型更好。
Apr, 2022
这篇论文提出了一种从因果推断角度出发的合理化模型,利用新提出的合理化结构因果模型计算了一系列的因果概率,从而得到了高效的合理化结果,实验表明该方法在真实世界的评论和医疗数据集上的性能优于最先进的方法。
Jun, 2023
通过提取文本来生成短而连贯的理由 —— 根据规则确保足以做出准确预测的 —— 以代替不带理由的预测,该方法结合了生成器(分配文本碎片的候选理由)和编码器(用于预测)。从未给予判据,而是让模型符合对规则的要求。本文还在多方面情感分析和问题检索任务中成功验证了此方法。
Jun, 2016
我们提出了一种方法,将人类决策的解释性文本注释引入文本分类模型,从而提高模型解释的可信度,并通过多目标优化算法在性能和可信度之间达到平衡,从而显著提高模型解释的质量。
Apr, 2024
通过实证分析人类解释的两个特点,即最大化理性监督准确性未必是提高模型准确性的最佳目标和人类理性是否提供足够信息以供模型进行预测,我们在此基础上提出了几种新的损失函数和学习策略,在三个包含有人类理性的数据集上进行评估,结果显示出了不断改进的基线,包括 MultiRC 上的 3% 精度提高。我们的研究强调了理解人类解释的特性,并据此进行模型训练的重要性。
Nov, 2021
本文研究了合作理性化范式的一个主要问题 —— 模型交互锁定,提出了一种新的理性化框架 A2R,引入了一个被软注意力驱动的预测器,并在两个具有不同输入的预测器之间引入了 generator 来解决这个问题,并在实验中展示了相应的改进。
Oct, 2021
利用自训练语言模型进行多任务教师 - 学生框架,在有限的任务特定标签和理由下,通过精心选择样本学习信息伪标签示例以及明确合理化预测的特征,显著提高了神经模型的性能,特别在低资源环境中表现出有效性。
Sep, 2021
文章分析了 2007-2022 年间自然语言处理领域合理化 (Rationalization) 技术的发展现状和存在的问题,提出了一种新的可解释人工智能技术领域 Rational AI (RAI) 并讨论未来的研究方向和挑战。
Jan, 2023
通过合作游戏,合理化赋予深度学习模型自我解释能力;本研究发现理性化容易出现的理性转移问题;为解决这个问题,提出一种新方法 DAR,通过辅助模块对齐选定理性和原始输入;实验证明 DAR 显著提高了解释质量,并在两个合成设置上进一步验证了其有效性。
Dec, 2023