Nov, 2018

基于多任务学习的联合语言理解和对话状态跟踪

TL;DR本文提出了一种新的多任务学习方法,旨在为面向任务的对话系统中的语言理解(LU)和对话状态跟踪(DST)进行学习。多任务训练使得编码用户话语的神经网络层用于 LU 和 DST,通过减少网络参数并提高性能。 本研究提出了 DST 框架,用于考虑有大量或无限可能值的插槽及以往对话中未见过的槽值,并探讨了在 LU 和 DST 输出上使用计划采样来弥合训练和推理之间的差距。