Dec, 2020

面向任务对话的语言理解鲁棒性测试

TL;DR本研究针对自然语言理解模型在实际对话系统的应用中容易出现的波动和变化问题,提出了一种模型无关的工具箱LAUG,涵盖语言变体,语音特性和噪声扰动三个方面的四种数据增强方法,揭示了现有模型中的严重鲁棒性问题,提供了一种使用LAUG生成的增强数据集来促进语言理解测试鲁棒性的方法。