通过分层序列生成实现可扩展和准确的对话状态跟踪
本文介绍了一种基于深度学习的可伸缩的多领域对话状态跟踪方法,通过引入一个新的状态跟踪框架,该框架独立于具体的槽值集合,并将对话状态表示为候选值集合的分布,此方法能够快速适应新领域,提高跨领域和可扩展性。
Dec, 2017
本研究提出一种新的Goal-oriented dialogue systems框架,其中的dialogue state tracker可适用于multiple domains,且不需要特定领域的先验知识,预训练的词嵌入技术有助于提高性能。
Nov, 2018
本文提出了一种可转移的对话状态生成器(TRADE),其使用复制机制从话语中生成对话状态,实现了在推断过程中跨领域知识转移。通过零样本和小样本模拟跟踪未见领域,TRADE 实现了60.58%的联合目标精确度,而不影响已经训练过的领域。
May, 2019
本研究提出了BERT-DST,一种基于BERT的端到端的对话状态跟踪器,它可以从对话上下文中直接提取槽值,并采用所有槽的编码参数共享的方法,实现了可扩展的对话状态跟踪。实证评估表明,BERT-DST在可扩展的数据集Sim-M和Sim-R上优于之前的方法,在标准数据集DSTC2和WOZ 2.0上取得了具有竞争力的性能。
Jul, 2019
该研究提出了一种基于固定大小记忆和有选择的覆盖机制的对话状态跟踪模型,其将DST分解为两个子任务,并引导解码器集中于其中一个任务,以提高DST性能。
Nov, 2019
本文提出了一种基于结构化状态表征的、称为 Coarse-to-fine Dialogue State Tracking (CREDIT) 的方法,它将对话状态跟踪作为序列生成问题,并在 MultiWOZ 数据集上获得了令人满意的实验结果。
Sep, 2020
本文提出了一种基于Transformer的框架,将BERT作为编码器和解码器,通过共同优化操作预测目标和值生成目标来实现多领域对话状态跟踪,同时重复使用编码器的隐藏状态构建平面编码器-解码器架构来实现有效的参数更新,实验表明我们的方法显著优于现有的最先进框架,并且达到了最佳本体论方法的非常有竞争力的性能。
Oct, 2020
该研究论文提出了一种新的对话状态追踪方法,使用Seq2Seq-DU,该方法通过两个基于BERT的编码器来编码对话中的话语和模式的描述,可以有效地处理类别和非类别槽,并能够联合建模意图、槽和槽值,其效果较现有方法更为优越。
Nov, 2020
该研究针对对话系统中特定目标和本体的对话状态跟踪模型的可扩展性问题,提出了一种将对话行为融入到对话模型设计中,利用机器阅读理解预测跨域对话状态的方法,并在实验结果中表现出较高的准确度,为未来的面向任务的对话系统提供了对话状态设计的指导。
Aug, 2022