Apr, 2020

半监督自然语言理解的双向学习

TL;DR通过引入一个新的 NLU 双重任务 —— 语义到句子生成 (SSG),并提出一种新的半监督 NLU 框架,其中包括对应的双重模型,以解决之前半监督学习面临的标注样本稀缺问题。该框架通过主任务与对偶任务之间的闭环,使得 NLU 模型可以充分利用数据(标记和无标记),并在每次迭代中逐步提高 NLU 和 SSG 模型的性能,在 ATIS 和 SNIPS 两个公共数据集上的实验结果表明,该方法明显优于基线,而且在监督设置下也可以达到最先进水平。