基于强化学习的推論樹可解释问答方法 (RLET)
通过生成包含多前提蕴含步骤(即知识事实到问题答案的中间推理结论)的蕴含树形式的解释,本研究提出第一个含有多步蕴含树的数据集 ENTAILMENTBANK,用于培训模型执行三项解释任务。结果表明,当输入包含相关句子时(例如,任务(a)的 35% 结果完美),强大的语言模型能部分地解决这些任务,并具有推广到其他领域的迹象。
Apr, 2021
通过提出 SEER 方法,我们在建立问答系统中,给出结构化解释,提高系统的可解释性和可靠性;实验证明,SEER 方法显著优于现有方法,在 EntailmentBank 上的绝对改进率达到了 6.9%,在 STREET 基准上平均提升了 4.4%,同时展现出卓越的效率和跨数据集的泛化性能。
Jan, 2024
本文旨在将 “依托树” 作为主要方法,探讨如何有效地在大量前提事实列表中有效地构建多级推理树,该方法以主动式前提选择步骤为序列,采用预训练的变形金刚模型迭代的微调来平衡语义关系的编码和解释逻辑建立模型,并在实验中得到了 20% 的有效性提升。
Aug, 2022
本文提出了一种新的基于问题蕴含识别(Recognizing Question Entailment)的问答(Question Answering)方法,基于机器学习和深度学习算法,结合信息检索模型,在医疗领域实现了显著的问答准确率提升。
Jan, 2019
本研究旨在设计一个问题回答系统,通过系统的推理链条,向外呈现模型回答问题的内部思路过程,并通过回答问题的命题来验证模型是否真正信奉这些命题。本文所提出的系统能够产生多步,忠实和真实的推理链条,能够使人更好地理解模型的判断和思维方式,为纠正和修正模型误解提供新思路。
Oct, 2022
提出了一个基于将文本转换为抽象意义表示(AMR)图的新型流水线,通过预训练的 AMR 解析器将 AMR 图转换为命题逻辑,并使用 SAT 求解器进行自动推理,引入了松弛方法以允许替换或遗忘某些命题。实验结果表明该流水线在四个 Recognizing Textual Entailment 数据集上表现良好。
May, 2024
通过在部分监督下基于自然语言推理模型对合理性解释模型进行了优化,无需访问真实标签,提高了性能,并实现了与监督提取模型相当的结果和优于无监督方法 100% 以上的性能。
Feb, 2024
该论文提出了一种基于 TV-TREES 的多模态蕴涵树生成器,用于解决在电视剪辑等复杂多模态内容上的问答问题,通过生成简单前提与视频直接蕴涵的更高级结论之间的蕴涵关系树,实现可解释的联合模态推理;在 TVQA 数据集上进行的实验证实了该方法在全视频剪辑上的零样本性能,在黑盒方法上取得了最先进的可解释性和性能的最佳结合。
Feb, 2024
提出了逻辑模式记忆预训练模型 (LMPM),结合外部存储结构和实体抽象方法构建数据集,通过逻辑蕴含模式生成更连贯和合理的结论,有效提高了蕴含树生成的质量。
Mar, 2024