提高任务导向对话系统的鲁棒性
本研究针对自然语言理解模型在实际对话系统的应用中容易出现的波动和变化问题,提出了一种模型无关的工具箱 LAUG,涵盖语言变体,语音特性和噪声扰动三个方面的四种数据增强方法,揭示了现有模型中的严重鲁棒性问题,提供了一种使用 LAUG 生成的增强数据集来促进语言理解测试鲁棒性的方法。
Dec, 2020
在这项研究中,我们将对抗性攻击结果视为模型的一个新(未见过的)领域,并将防御问题转化为如何提高模型在这个新领域的鲁棒性。我们关注会话蕴含任务,其中多轮自然语言对话是前提,通过对变换模型进行微调以预测给定对话的假设是真还是假。我们采用同义词交换作为攻击方法,并实施了一些微调策略,并提出了嵌入扰动损失作为提高模型鲁棒性的方法。最后,通过讨论自然语言处理中现实世界的对抗攻击,展示了我们工作的重要性。
May, 2024
通过研究七种噪声类型对话系统中意图分类和槽位标记模型在真实环境中出现的问题,我们设计了一种增加数据的方法来提高模型性能,使得我们能够训练出一个在各种噪声现象下都具有鲁棒性的 IC/SL 模型。
Apr, 2021
大规模语言模型在很多语言任务上取得了最先进的性能。然而,它们在针对对抗性语言示例时失败了,这些句子被精心优化以欺骗语言模型,但对人类来说具有类似的语义意义。我们的方法可以动态地适应输入句子并使用屏蔽词的预测结果,从而修复许多语言对抗攻击,而不需要任何训练。在两个流行的句子分类数据集上进行的可视化和实证结果表明,我们的方法能够修复超过 65% 的对抗性语言攻击。
Oct, 2023
利用转移学习模式,主流的跨语言任务导向对话系统通过在英语中训练一个共同的意图识别和槽填充模型,然后将其无缝应用于其他语言。然而,现有研究往往忽视了向资源较少的方言进行转移的问题。本文针对这一问题,基于之前对英语的研究,我们构建了并手动评估了将德语句子转换为口语形式的扰动规则,并将其用于合成四个任务导向对话数据集的测试集。利用这些新数据集,我们在六种不同的 transformer 上进行了实验评估,结果表明,当应用于口语方言时,其意图识别性能仍然保持,并且平均准确率仅下降了 6%(4.62 个百分点)。然而,槽探测方面的性能大幅下降,槽 F1 评分降低了 31%(21 个百分点)。我们的发现得到了从标准美国英语向合成的城市非裔美国俚语英语的转移实验的进一步支持。
Feb, 2024
本文研究了提高生产质量的面向任务的对话系统的设计的困难,提出了使用自然语言的轻量级语义表示 —— 规范形式作为用户意图分类的替代方法,并且展现了规范形式可以很好地泛化到新的、未知的域,在零次或少次样本学习中可以轻易实现,并且可以降低开发新的任务导向的对话域的复杂性和费用。
Nov, 2022
本研究以交互式学习的方式开发出一种训练方案,提高自然语言处理在对话中检测攻击性语言的鲁棒性,并证明此方法比前一代系统稳健性更强。同时,该研究表明检测对话中的攻击性语言不能看作是单个句子的任务,必须考虑到对话背景。
Aug, 2019
本文提出了一种名为 FLAT 的特征级对抗性训练方法,该方法旨在通过正则化全局词重要性分数来调节模型在替换词及其同义词的原始 / 对抗性示例对中的理解保持一致,从而提高模型对预测和解释方面的鲁棒性。
Mar, 2022
研究口语任务导向对话状态跟踪和基于知识的对话建模,提出使用已有数据集不足的问题,借助 n-best 语音识别假设,改善任务绩效,并说明现有模型在口语数据方面存在不足,研究结果呈现有利于基于语音的任务导向对话系统的基准测试数据集。
Sep, 2021
本文探讨了利用自我注意力、卷积和循环模型进行语音理解的各种方法,提出了一种适用于工业环境的 “标签 - 循环” 模型,能够准确快速地进行意图分类和词条标注,同时在 Snips 数据集中实现了 30% 以上的误差降低。
Mar, 2019