Aug, 2023
任务条件下的BERT联合意图检测和词槽填充
Task Conditioned BERT for Joint Intent Detection and Slot-filling
TL;DR通过在多个任务上训练基于Transformer编码器的统一模型,并借助富输入在目标推理上对模型进行条件化,本文探索了解决对话系统中用户意图的不可预测性和插槽的异构性的假设,并表明将模型条件化于对同一语料库上的多个推理任务,如意图和多个插槽类型,可以学习到比单任务模型更丰富的语言交互;实验结果表明,将模型条件化于越来越多的对话推理任务可以提高性能,MultiWOZ数据集上,通过对意图进行条件化可以提高3.2%的联合意图和插槽检测性能,通过对插槽进行条件化可以提高10.8%的性能,同时对意图和插槽进行条件化可以提高14.4%的性能;此外,在与Farfetch客户的实际对话中,该条件化BERT可以在整个对话过程中实现高效的联合目标和意图检测性能。