通过生成包含多前提蕴含步骤(即知识事实到问题答案的中间推理结论)的蕴含树形式的解释,本研究提出第一个含有多步蕴含树的数据集 ENTAILMENTBANK,用于培训模型执行三项解释任务。结果表明,当输入包含相关句子时(例如,任务(a)的 35% 结果完美),强大的语言模型能部分地解决这些任务,并具有推广到其他领域的迹象。
Apr, 2021
本文提出了一种基于强化学习的蕴含树生成框架 RLET,通过句子选择和推理生成模块进行单步推理,并积累整个树的训练信号,实现了针对解释性 QA 中的逻辑推理过程,并且在三个数据集上的实验表明了使用强化学习框架的优点。
Oct, 2022
本文旨在将 “依托树” 作为主要方法,探讨如何有效地在大量前提事实列表中有效地构建多级推理树,该方法以主动式前提选择步骤为序列,采用预训练的变形金刚模型迭代的微调来平衡语义关系的编码和解释逻辑建立模型,并在实验中得到了 20% 的有效性提升。
Aug, 2022
本研究旨在设计一个问题回答系统,通过系统的推理链条,向外呈现模型回答问题的内部思路过程,并通过回答问题的命题来验证模型是否真正信奉这些命题。本文所提出的系统能够产生多步,忠实和真实的推理链条,能够使人更好地理解模型的判断和思维方式,为纠正和修正模型误解提供新思路。
本研究提出一种名为 Iter-RetGen 的方法,通过检索和生成的迭代协同作用,以全面地处理检索到的知识并在不受结构约束的情况下实现灵活的生成,而这可以在多跳问答、事实验证和常识推理等任务中实现可比甚至优于现有检索辅助基准的效果,同时减少检索和生成的开销,从而提高了性能。
May, 2023
本文提出了一种基于自然语言的演绎推理系统,通过将任务分解为逐步协调的步骤,并由搜索程序生成中间结论的树,可以成功地证明真实的语句并拒绝虚假的语句。
Jan, 2022
提出一种无需语料库特定注释的 Chain Guided Retriever-reader(CGR)框架,通过生成由语义图构建的推理链,提高多跳科学问答的可解释性和性能,采用增强学习训练检索器,并设计了适用于本地和全局链信息的 Chain-aware loss 作为培训的远程监督信号。
Sep, 2021
通过在部分监督下基于自然语言推理模型对合理性解释模型进行了优化,无需访问真实标签,提高了性能,并实现了与监督提取模型相当的结果和优于无监督方法 100% 以上的性能。
Feb, 2024
该论文提出了一种基于 TV-TREES 的多模态蕴涵树生成器,用于解决在电视剪辑等复杂多模态内容上的问答问题,通过生成简单前提与视频直接蕴涵的更高级结论之间的蕴涵关系树,实现可解释的联合模态推理;在 TVQA 数据集上进行的实验证实了该方法在全视频剪辑上的零样本性能,在黑盒方法上取得了最先进的可解释性和性能的最佳结合。
本文提出了一种新的基于问题蕴含识别(Recognizing Question Entailment)的问答(Question Answering)方法,基于机器学习和深度学习算法,结合信息检索模型,在医疗领域实现了显著的问答准确率提升。
Jan, 2019