自然语言推理是语言模型的重要基准任务,在领域泛化上的问题中,我们通过生成多样化的合成 NLI 数据,使得模型在全新的下游测试环境中具有最佳的泛化性能。
Feb, 2024
本文介绍了不确定的自然语言推断(UNLI),它是自然语言推断(NLI)的一种改进,通过预测主观概率评估来预测结果,利用概率评估重新标记了部分 SNLI 数据集,并使用现有的分类标签化的 NLI 数据进行预训练,最终模型展示了超越分类标签化的 NLI 任务的更微妙推断的人类表现水平。
Sep, 2019
使用自然标注的维基百科类别层次结构构建的 428,899 个短语对构成的 WikiNLI 资源,通过对 BERT 和 RoBERTa 进行预训练和模型迁移,证明可以最大限度地提高模型在自然语言推理和词汇蕴含方面的表现并在其他语言中表现良好。
Oct, 2020
通过一个明确的指标,我们提出了多种度量方法,并研究了哪些特定的排列方式使得大型 Transformer NLU 模型在自然语言推理任务中对随机词序具有一定程度的规律性。我们对此现象进行了综合实证评估,发现无论是基于 Transformer 还是基于 pre-Transformer RNN / ConvNet 结构的编码器,以及跨多种语言(英语和中文)都存在此问题,并提供相关数据和代码。
Dec, 2020
介绍了 MedNLI 数据集的自然语言推理任务 (NLI),并提出了两种解决深度神经网络模型在特定领域泛化能力差的方法:利用开放域数据集进行迁移学习和结合外部数据和词汇来源的领域知识。实验结果表明,两种方法均可提高模型性能。
Aug, 2018
我们提出了一种 NLP 技术,利用通用翻译数据集和知识蒸馏技术,通过两个预训练模型在源语言和目标语言上的表现实现了目标语言的句子关系推理,该技术在多个任务上展现了普适性。
Sep, 2023
介绍了 DocNLI 数据集,它是基于广泛的 NLP 问题构建的,涵盖了文本的多种类型和文档层级上的 NLI,而不是仅仅句子层级上的。实验表明,即使没有微调,预训练于 DocNLI 上的模型在流行的句子级基准测试中表现良好,并且推理到文档层级上的跨域 NLP 任务具有良好的泛化性能。
Jun, 2021
我们研究了自然语言推理 (NLI) 在自动化需求工程任务中的应用。我们集中在需求分类、需求规范缺陷的识别以及利益相关者需求冲突的检测三个任务。通过在不同学习设置下进行的实验,我们明确证明了我们的 NLI 方法在需求规范分析方面超越了传统的 NLP 方法以及基于大型语言模型和聊天机器人模型的其他方法。此外,我们分享了在学习设置方面的经验教训,使 NLI 成为自动化需求工程任务的合适方法。
Apr, 2024
本研究提出了一种基于句子转换模型的新方法,从庞大数量的大型问答数据集中自动派生自然语言推理(NLI)数据集,并展示了其将多种问答数据集成功应用于自然语言推理数据集的能力,从而新派生出包含 50 万个以上 NLI 示例的免费数据集 (QA-NLI),展示了它呈现的推理现象的宽泛性。
Sep, 2018
本研究对基于 BERT 架构的多种模型(适配器、孪生变压器、HEX 去偏差等)进行了几项实验,包括对数据进行子采样和增加模型大小,以探究自然语言理解(NLU)中关于从 MNLI 到 HANS 等各种特定数据集的泛化问题。研究报告了两种成功的和三种不成功的策略,同时提供了有关 Transformer-based 模型学习泛化的见解。
Oct, 2021