本文是对近年来有关自然语言推理数据集的研究及其相关算法模型的综述,对模型和数据集中存在的问题进行分类整理,并提出一些可能的研究方向,为未来的研究提供指导建议。
May, 2020
本文调查了低资源自然语言处理的相关方法,其中包括数据增强、遥感监视和迁移学习等技术以帮助在需要训练数据较少的情况下提高神经模型的性能,并通过说明这些方法的差异帮助选择适合特定低资源设置的技术。
Oct, 2020
本篇论文总结了近年来自然语言处理 (NLP) 的抗干扰性研究,并就技术、度量标准、嵌入、基准等维度深入探讨了该领域中存在的问题和待解决的方向。
Jan, 2022
本文综述了自然语言处理在编程方面的研究,并从推理模型到最新竞争级模型全面调查了现有的相关工作,具有技术类别的完整性,方便查找和比较未来的工作。
Dec, 2022
该研究探索了无监督预训练和外部知识对自然语言推断任务的影响,以了解其如何帮助自然语言理解和解决 NLP 问题。
Apr, 2019
该研究综述了深度学习方法和模型在自然语言处理方面的应用和进展,分析和比较了不同方法和先进模型对语义分析和 NLP 任务领域的促进作用。
Mar, 2020
本文介绍了使用预训练和微调、提示或文本生成方法解决 NLP 任务的大型预训练基于 transformer 的语言模型,以及使用预训练语言模型生成数据进行训练或其他目的的方法,并讨论未来研究的限制和建议方向。
Nov, 2021
本文综述了深度学习在自然语言处理中的应用,包括模型设计与方法演进,总结了深度学习在 NLP 任务中的过去、现在和未来发展。
Aug, 2017
本文提出了一种运用知识图谱的结合方法来提高自然语言推理问题(NLI)领域中性能的技术,该技术在文本、图形和文本到图形的模型上均取得了最新的最优表现,并讨论了外部知识在解决 NLI 问题中的实际意义。
Sep, 2018
本研究引入了印度尼西亚自然语言理解(IndoNLU)任务的第一个巨大资源及其预训练模型 IndoBERT,包括从单句分类到对句子序列标记的 12 个任务,并提供了基准模型和评估框架以使每个人都能评估自己的系统性能。
Sep, 2020