正向陈述形式下的改写提升否定理解能力
通过自动搜集否定语句及其肯定解释,本文提出了一种基于神经网络的生成模型,使得 RoBERTA 分类器在自然语言推理和情感分析任务中得到更好的结果。
Oct, 2022
本文探讨了一种新的自然语言推理分类任务的方式来发现实际上发生的事件,具体涉及否定语态下的肯定解释。实验结果表明,目前现有的自然语言推理语料库训练出来的最先进的 Transformer 并不能很好地揭示这种肯定解释,而 T5 Transformer 在从否定语态生成肯定解释的任务中表现不如人类。
May, 2022
本文研究分析了 6 个自然语言理解的任务中,八个流行的语料库中的否定词的使用情况,指出这些语料库中的否定词较少且不重要,而最新的 transformers 在处理含有重要的否定词的实例时表现不佳,因此需要新的包含否定词的语料库来解决自然语言理解任务中的问题。
Mar, 2022
利用释义学习问题表达的多样性来提高询问回答系统在 Freebase 和句子选择上的准确性。通过训练端到端来直接学习最有可能产生正确答案的语言表达,得到了有竞争力的结果。
Aug, 2017
本文提出了一种新的针对否定语的预训练策略,包括有针对性的数据增强和否定掩蔽,以更好地将否定信息纳入语言模型。在常见的基准测试中进行的广泛实验显示,我们提出的方法提高了否定检测性能和泛化能力,超过了强基线 NegBERT (Khandewal 和 Sawant, 2020)。
May, 2022
本文针对自然语言中否定句的建构,借助负面通用语句的反向学习目标,优化了 BERT 语言模型,将 negated LAMA 数据集的平均 top1 错误率降至 4%,并在 negated NLI 基准测试中看到了一些改进。
May, 2021
该研究介绍了 NeQA 数据集,发现语言模型的表现随着模型大小、计算能力或数据的提升而呈现出正比例尺度增长的趋势。然而,在 NeQA 数据集中,语言模型在对于否定问题的解答上出现了相反的结果。该研究发现,这种现象的解答依赖于两个子任务:问题回答和否定理解。研究表明:问题回答任务呈线性比例尺度增长趋势,而否定理解任务呈 Sigmoid 函数形状的比例尺度增长趋势,并由这两个趋势的组成,得出了 NeQA 的最终缩放趋势。
May, 2023
该研究构建了一个主题为否定形式对神经信息检索的影响的基准测试数据集,发现跨编码器表现最好,晚交互模型次之,对数器和稀疏神经架构最差。同时研究表明,当存在否定形式时,大多数当前的信息检索模型表现相似或不佳,而本研究在对比文本数据集的继续优化和扩大模型尺寸方面,虽然提高了性能,但仍存在机器与人之间的巨大差距。
May, 2023
该研究介绍了 CONDAQA,这是第一个要求关于段落中否定语句涵义的英语阅读理解数据集,它挑战现有的自然语言理解系统,具有多样化的否定提示符,重点精心设计了具有谐音、范围变化和否定转变的三种编辑方式,细致构建了一系列难以回答的问题 - 答案对来测试模型的性能。最终的 CONDAQA 包含 14182 个问题 - 答案对及 200 多个唯一的否定提示符,最好的模型 (UnifiedQA-v2-3b) 仅在一致性测度上达到 42% 的表现,远低于人类表现 (81%),因此研究团队希望将他们的数据集、每个问题答案的完整编辑和全面微调发布出来,以促进未来针对否定语言的 NLP 方法的发展。
Nov, 2022
本文研究通过开发将人类自然语言自动翻译为机器可理解语言的能力,从而增强人机交流效率,重点是如何利用传统方法训练有限的数据集训练语义解析器,在海事领域的实验结果表明被翻译成 SQL 格式的语句和逻辑方面的形式是一种有用的训练数据集。
Mar, 2022