通过语句组合搜索进行自然语言推理
提出了一个处理模糊的假设的新系统,使用自然语言生成模型来从一个前提中推出另一个前提并以双向的方式搜索。 使用回路验证程序过滤质量不佳的生成来确保正确性。 该系统在修改后的 EntailmentBank 数据集和名为 “Everyday Norms:Why Not?“的新数据集上表现出可以恢复跨领域和非领域的前提的能力。
Nov, 2022
本研究提出了 ParaPattern,该方法利用自动化流程从维基百科生成训练数据,并使用 BART 模型在无直接人类监督下从多样的自然语言输入中生成演绎推理,结果表明,ParaPattern 模型在无领域训练数据的情况下,表现优于基线系统。
Apr, 2021
通过生成包含多前提蕴含步骤(即知识事实到问题答案的中间推理结论)的蕴含树形式的解释,本研究提出第一个含有多步蕴含树的数据集 ENTAILMENTBANK,用于培训模型执行三项解释任务。结果表明,当输入包含相关句子时(例如,任务(a)的 35% 结果完美),强大的语言模型能部分地解决这些任务,并具有推广到其他领域的迹象。
Apr, 2021
该论文定义了一项新的文本蕴含任务,要求对多个前提句子进行推断,提出了一个新的数据集来最小化平凡的词汇推理,强调对日常事件的知识,并为文本蕴含提出了一个更具挑战性的环境;同时评估了多种强力神经网络基线,并分析多个前提任务与标准文本含义的区别。
Oct, 2017
本文提出了自然前提选择 (Natural Premise Selection) 这一新型自然语言处理 (NLP) 任务,以便找到能为生成某个语句非正式数学证明提供支持定义和支持命题的前提;此外,我们还提供了一个数据集 NL-PS,用于评估不同方法在此任务上的表现,并使用不同的基线模型来展示了该任务所涉及的基本解释挑战。
Apr, 2020
我们通过构建和评估直观的基于证明的文本蕴涵树,消除对脆弱形式逻辑的依赖,提出了一种一致且理论基础的方法来注释解构蕴涵的数据集,我们发现生成的 RDTE 数据集在内部一致性上比以前的数据集高出 9%,并且通过在现代神经符号推理引擎中使用 RDTE 导向的蕴涵分类器进行训练,显著提高了文本推理的结果(准确性和证明质量),说明了这一进展在实践中的益处。
Feb, 2024
本文研究了使用子树级别的 attention 模型进行文本蕴含任务,相比基于硬对齐和逻辑的传统模型具有更强鲁棒性和更高准确度,并且扩展 attention 模型到树节点可以更好地利用语法和递归信息提高准确度。
Jan, 2017
本文介绍了一种新的逐步方法 NLProofS,通过在给定假设的条件下学习生成相关步骤,从而在 NLP 中解决证明生成的问题,并在 EntailmentBank 上取得了最先进的性能。
May, 2022
本文旨在将 “依托树” 作为主要方法,探讨如何有效地在大量前提事实列表中有效地构建多级推理树,该方法以主动式前提选择步骤为序列,采用预训练的变形金刚模型迭代的微调来平衡语义关系的编码和解释逻辑建立模型,并在实验中得到了 20% 的有效性提升。
Aug, 2022