Aug, 2023

任务条件下的 BERT 联合意图检测和词槽填充

TL;DR通过在多个任务上训练基于 Transformer 编码器的统一模型,并借助富输入在目标推理上对模型进行条件化,本文探索了解决对话系统中用户意图的不可预测性和插槽的异构性的假设,并表明将模型条件化于对同一语料库上的多个推理任务,如意图和多个插槽类型,可以学习到比单任务模型更丰富的语言交互;实验结果表明,将模型条件化于越来越多的对话推理任务可以提高性能,MultiWOZ 数据集上,通过对意图进行条件化可以提高 3.2%的联合意图和插槽检测性能,通过对插槽进行条件化可以提高 10.8%的性能,同时对意图和插槽进行条件化可以提高 14.4%的性能;此外,在与 Farfetch 客户的实际对话中,该条件化 BERT 可以在整个对话过程中实现高效的联合目标和意图检测性能。