提出了一种基于整数线性规划的结构化推理系统,利用半结构化知识库来回答自然语言问题,并且在真实科学问题数据集中,性能优于以前使用Markov逻辑网络和ILP系统,同时结合非结构化推理方法可以大幅提高系统性能
Apr, 2016
本文研究在于如何用外部的知识来丰富神经网络的自然语言推理模型,并展示了这些模型如何在 SNLI 和 MultiNLI 数据集上实现最先进的性能水平。
Nov, 2017
在十个不同的自然语言推理数据集上进行实验后,我们发现使用一种仅基于假设的模型,即使忽略上下文,也可以显著优于大多数 NLI 数据集的大多数基线,分析表明统计异常性可能允许模型在某些数据集中执行 NLI,超出不带上下文访问时本应实现的界限。
May, 2018
该研究探索了无监督预训练和外部知识对自然语言推断任务的影响,以了解其如何帮助自然语言理解和解决NLP问题。
Apr, 2019
介绍一种新的基于长文本语境下的对比学习模型ConTRoL,该模型具有一定难度,能够检测语境推理中的各种类型,并且在测试中结果表明该模型比自然语言处理的最先进模型表现得更好,同时还可进行事实正确性验证任务。
Nov, 2020
介绍了DocNLI数据集,它是基于广泛的NLP问题构建的,涵盖了文本的多种类型和文档层级上的NLI,而不是仅仅句子层级上的。实验表明,即使没有微调,预训练于DocNLI上的模型在流行的句子级基准测试中表现良好,并且推理到文档层级上的跨域NLP任务具有良好的泛化性能。
Jun, 2021
研究了不同来源的外部知识对于解释性自然语言推断系统性能的影响,并发现不同的知识来源对于推理能力有不同的影响,同时进行了最大规模、最精细的可解释NLI众包研究,揭示了自动性能分数的巨大差异并没有反映在人的评分上。
Sep, 2021
本文介绍了 SciNLI,它是一个用于 NLU 的大型 NLI 数据集,旨在捕捉科学文本中的规范性,并包含107,412个从NLP和计算语言学方面的学术论文中提取的句子对。我们的实验表明,SciNLI比现有的NLI数据集更难分类。使用XLNet的最佳模型仅实现了78.18%的 Macro F1得分和78.23%的准确度,表明还有很大的改进空间。
Mar, 2022
通过引入科学知识图谱来使预训练模型适应科学领域并提出了无监督构建科学知识图谱的方法,进一步提出了以事件为中心的知识注入方法,实验结果表明,方法达到了最先进的性能并具有效果和可靠性。
Oct, 2022
科学自然语言推理(NLI)的任务涉及预测从研究文章中提取的两个句子之间的语义关系。本文介绍了多样性科学NLI任务,并提出了MSciNLI,这是一个包含132,320个从五个新科学领域中提取的句子配对的数据集。通过精调预训练语言模型和促使大型语言模型建立了MSciNLI的强基准。最高的PLM和LLM基准的宏F1分数分别为77.21%和51.77%,说明MSciNLI对这两种模型来说都具有挑战性。此外,我们证明了领域转移降低了科学NLI模型的性能,从而证明了我们数据集中不同领域的多样性特征。最后,我们在中间任务迁移学习设置中使用了两个科学NLI数据集,并展示了它们可以提高科学领域下游任务的性能。我们在Github上提供了数据集和代码。
Apr, 2024