本文探讨如何利用自然语言推理来验证问答系统提供的答案是否正确,并通过使用大型预训练模型和最新的数据集来构建 QA 实例的前提 - 假设配对,进而将 QA 和 NLI 数据集结合以训练 NLI 模型,以此提高 QA 模型的准确性和置信度。
Apr, 2021
本文介绍了一种通过利用自然语言关联性来提高机器的阅读理解性能的方法:使用独立的问答系统进行问答任务和自然语言推理系统对选择对之间的关系进行分析,然后通过基于整数线性规划的关系框架进行推理,提高独立问答系统的决策能力。此外,本方法还提出了一个多任务学习模型。
Dec, 2020
通过结合知识图谱的方式,构建了一种自然语言推断模型,用于从网络的多样化来源中检索能够有效证明陈述错误的证据,从而进一步改进了证据检索系统。
Sep, 2021
本文提出了一种运用知识图谱的结合方法来提高自然语言推理问题(NLI)领域中性能的技术,该技术在文本、图形和文本到图形的模型上均取得了最新的最优表现,并讨论了外部知识在解决 NLI 问题中的实际意义。
Sep, 2018
该研究提出了一个新的基于机器学习模型的方法来检测阿拉伯语句子对之间的矛盾。作者创建了一个丰富的数据集(ArNLI)来进行实验,并进行了多个传统机器学习分类器的比较,其中 Random Forest 分类器在三个测试数据集中的准确率分别为 99%、60%和 75%。
Sep, 2022
该论文探讨了利用自然语言处理技术进行非结构化文本的自动推理。研究表明,语言模型具有复杂的推理能力。然而,当推理真实世界中不一致或矛盾的信息时,需要采用一种策略来解决这种冲突。采用对信息来源的偏好以及执行更高偏好的源的方式来解决冲突是一种普遍适用的方法。该论文提出了 “BoardgameQA” 数据集来测试语言模型的推理能力,结果表明当前最新技术的语言模型在处理相互矛盾的信息时存在显著差距。
Jun, 2023
使用问题回答预测自然逻辑运算符,不依赖标注数据、具有确定性推理系统的方法,在少样本设置下,在 FEVER 上的准确度比最佳基线提高了 4.3 个百分点,并且在丹麦验证数据集上超过了所有其他方法,展示了系统的鲁棒性和可移植性,通过人工评估得出结论:相较于之前的基于自然逻辑的系统,我们的方法产生了更可信的证据,并且使用更少错误的自然逻辑运算符。
Oct, 2023
本研究探讨了把自然语言推理(NLI)整合到文本生成管道中的方法,使用预训练的 NLI 模型评估生成的句子是否与提示和前文相符、矛盾或中立。最终结果表明,NLI 策略最大化中立类提高了生成文本的质量,而不是其他两种策略,无论参数值如何,该策略都比普通生成的文本质量更高。
Feb, 2023
教机器提出澄清问题对于自然语言处理系统非常有用,本研究使用 Siamese BERT 模型,将 NLI 的特征运用在 StackExchange 数据集问题排序上,取得了相对于现有基线模型高达 40% 至 60% 的性能提升。
Aug, 2020
分析了两个自然语言推理数据集的语言特征,发现机器学习模型难以理解介词和动词语义重要性,不能理解反义词和同音词,不能理解不完整的句子和罕见单词短语,因此需要在训练过程中尽可能利用更多外部知识。
Oct, 2022