可解释的多跳事实验证中一致的多粒度理由提取
利用图卷积网络和注意力因素,将可解释的多跳事实验证问题转化为子图提取,实现证据的拓扑交互,构建多任务模型区分警示性因素,对通过 FEVEROUS 基准测试得到的实验结果验证上述方法优于先前最先进算法的功效。
Dec, 2022
该研究提出了一种基于概率的方法来训练可解释的多跳问答系统,该系统可以在无需基于理由的监督的情况下进行训练。该方法将理由明确建模为集合,能够在文档之间以及文档内部的句子之间进行交互和多跳推理,这种方法在选择理由方面比之前的方法更加准确。
May, 2023
论文提出了一种理性敏感的方法来生成语言多样且标签翻转的反事实数据,同时保持逻辑关系,并通过检查和过滤模块对反事实数据进行规范化,实验结果表明该方法优于基准模型,并且能够生成语言多样的反事实数据而不破坏其逻辑关系。
Oct, 2023
我们提出了一种名为 REFER 的框架,利用可微分的 rationale extractor 来通过在训练过程中使用人工标注的重点提取训练任务模型和 rationale extractor,从而在忠实度、可信度和下游任务准确率方面显著提升性能。
Oct, 2023
构建和利用语义结构的多跳问题回答框架,通过神经模型和连续思维机制提高推理能力,并结合信息抽取和提取的语义结构实现更准确和可解释的问题回答。
Nov, 2023
本文提出了一个解释性逐步推理框架,将单跳支持句子识别和单跳问题生成结合起来,并利用当前跳的推理来推导出最终结果。我们使用一个统一的读者模型进行中间跳推理和最终跳推理,并采用联合优化来实现更精确和稳健的多跳推理,取得了良好的实验效果。
Aug, 2022
通过在部分监督下基于自然语言推理模型对合理性解释模型进行了优化,无需访问真实标签,提高了性能,并实现了与监督提取模型相当的结果和优于无监督方法 100% 以上的性能。
Feb, 2024
该论文介绍了一种基于经验分析的可解释性声明验证系统 ExClaim,通过像法律系统一样的理性化方法,提供说明模型决策过程的自然语言解释,有助于改进人工智能的可靠性和减少警惕性。
Jan, 2023
本文旨在提高可信的 AI 系统的有效性和可解释性,定义一个新类型的多模态解释来解释决策,并提出一种新的解释生成方法,可以显式地模拟词语和感兴趣的区域之间的配对关系,同时开发了一个包含 1040830 个多模态解释的新数据集以及进行了广泛的分析,以研究不同设置下解释的有效性和推理性能。
Mar, 2022