拥抱不确定性:转变 NLI 模型的训练目标
本文介绍了不确定的自然语言推断(UNLI),它是自然语言推断(NLI)的一种改进,通过预测主观概率评估来预测结果,利用概率评估重新标记了部分 SNLI 数据集,并使用现有的分类标签化的 NLI 数据进行预训练,最终模型展示了超越分类标签化的 NLI 任务的更微妙推断的人类表现水平。
Sep, 2019
研究了自然语言推理任务中固有人类分歧 (注释标签分布) 的估计。通过后处理平滑预测的标签分布以匹配期望的标签熵取得了很好的效果。同时,通过引入有多个参考的少量样例进行训练,相较于传统做法每个训练样本只采集一个参考,我们发现这种多参考的方法可以在固定注释预算下实现更好的精度。最后,提供了对比这两种方法的丰富分析,用于改进标签分布估计。
Feb, 2021
采用对抗性训练和敌对对抗方法的集成来降低自然语言推理中的偏见,这种方法比先前的去偏见努力表现更好,并且在推广到 12 个其他数据集时表现良好。
Apr, 2020
本研究提出了一种基于深度模型压缩的新方法,解决了自然语言理解中标记不确定性的问题,并发现了在低层中更合理表示的关系,这有助于减小模型的规模并改善可用性。
Jun, 2023
该研究论文通过在一小部分训练样例中为每个样例分配多个标签的方法,提出可通过利用不同标注数量的训练样例,设计高效的学习算法,提高自然语言处理的任务表现。
Sep, 2021
通过一个明确的指标,我们提出了多种度量方法,并研究了哪些特定的排列方式使得大型 Transformer NLU 模型在自然语言推理任务中对随机词序具有一定程度的规律性。我们对此现象进行了综合实证评估,发现无论是基于 Transformer 还是基于 pre-Transformer RNN / ConvNet 结构的编码器,以及跨多种语言(英语和中文)都存在此问题,并提供相关数据和代码。
Dec, 2020
介绍了一个通过迭代对抗人与模型的程序收集的大规模 NLI 基准数据集,并展示了训练模型在这个新数据集上将导致在各种流行的 NLI 基准测试中的最新性能,同时还带来了更困难的挑战。数据收集方法可以在永不停止的学习场景中应用,成为 NLU 的移动目标,而不是一个很快就会饱和的静态基准测试集。
Oct, 2019
我们提出了一种 NLP 技术,利用通用翻译数据集和知识蒸馏技术,通过两个预训练模型在源语言和目标语言上的表现实现了目标语言的句子关系推理,该技术在多个任务上展现了普适性。
Sep, 2023
本文提出了一种精细注释 Adversarial NLI 的方法,通过分析其数据集中不同方面的推理并使用手工编码,回答了一些问题,如哪种推理类型最常见,哪种模型在每种推理类型上的表现最好等,并希望这些注释可以使得对于 ANLI 训练的模型进行更细粒度的评估,更深入的了解模型失败和成功的原因,并且有助于在未来培训出更好的模型。
Oct, 2020