该论文研究对话状态跟踪,提出通过跨域对话数据训练一般化信念跟踪模型,使用域外数据初始化跨域信念跟踪模型的训练流程,提高了信念跟踪的性能。
Jun, 2015
提出了一种利用预训练词向量进行表示学习的神经信念追踪(Neural Belief Tracking,NBT)框架,用于估计对话中用户的目标,并可以在不使用手工制作语义词典的情况下达到与最先进的模型相同或更好的效果。
Jun, 2016
StateNet是一种通用的对话状态跟踪器,它独立于值的数量,共享所有插槽的参数,并使用预训练的词向量而不是明确的语义字典来解决当前方法在大型对话域上难以扩展的挑战,并且在两个数据集上的实验显示,我们的方法不仅克服了这些限制,而且还显著优于最先进的方法的性能。
Oct, 2018
本文提出一种基于BERT的简单而有效的对话状态跟踪模型,避免了当前神经架构通常存在的繁琐和复杂,具有不随本体论规模增长和适用于领域本体动态变化的优点。经实验验证,该模型在标准WoZ 2.0数据集上显著优于以往方法,经知识蒸馏压缩后性能依旧可与原模型相媲美,在资源受限的系统中表现出出色的效果。
Oct, 2019
本文提出了一种基于非自回归框架的对话状态跟踪方法(NADST),能够考虑域和槽之间的潜在依赖关系,优化对话状态预测的完整集合。该方法的非自回归性质不仅可以并行进行解码,大大降低了实时对话响应生成的延迟,而且可以在令牌级别检测槽之间的依赖关系。在MultiWOZ 2.1语料库上,我们的模型在所有领域上的联合精度达到了最先进水平,并且我们的模型的延迟比以前的最新技术低一个数量级,尤其当对话历史随时间推移时。
Feb, 2020
本文提出了一种新的架构,利用多粒度的注意力机制来更稳健地编码对话历史和槽的语义,用于实现准确的跨域对话状态跟踪,并在MultiWoZ 2.1数据集上将联合目标准确率提高了5%(绝对值),并在零-shot设置下比现有最先进技术提高至多2%(绝对值)。
利用机器阅读理解(RC)方法在对话状态跟踪中,针对模型架构和数据集两个方面进行改进并应用到多种领域,实现了很好的跨领域通用性,并在少数据情形下(few-shot scenarios)表现出了更好的性能,即便在零状态跟踪数据下(zero-shot scenarios),也在MultiWOZ 2.1数据集中表现出很高的性能。
Apr, 2020
该研究提出了使用上下文分层关注网络(CHAN)以及自适应目标策略来加强对话状态追踪(DST)模型,解决了文本中存在的关于历史对话、不平衡的slot分配、模型上下文表示等问题,实现了具有很大提升的端到端追踪的性能。
Jun, 2020
本文提出了一种领域无关的抽取式问答方法用于对话状态跟踪,通过训练一个分类器来预测多个领域的出现情况,将复杂的领域信息进行分离并在活动领域提取跨域问题答案,在多个数据集上达成了优秀的零-shot转移模型表现。
Apr, 2022
该研究针对对话系统中特定目标和本体的对话状态跟踪模型的可扩展性问题,提出了一种将对话行为融入到对话模型设计中,利用机器阅读理解预测跨域对话状态的方法,并在实验结果中表现出较高的准确度,为未来的面向任务的对话系统提供了对话状态设计的指导。
Aug, 2022