联合槽建模改善对话状态追踪
本文提出了两种神经网络结构,分别基于指针网络和转换网络,用于跟踪任务导向的口语对话系统中的对话状态,解决了传统方法在长对话上性能较差的问题。实验证明,两种提出的模型都能有效地解决更远距离的对话问题,且性能令人满意。
Jun, 2019
本论文提出了一种基于 TRADE 的可转移对话状态生成器,结合简单有效的话语标记技术和双向语言模型的多任务学习模型,旨在解决基线性能在长对话上大幅下降的问题,最终在 MultiWOZ 2.0 数据集上实现了 52.04%的联合目标准确性,相对提高了 7.03%,成为了最新的最先进技术。
Apr, 2020
本文提出了一种新的多任务学习方法,旨在为面向任务的对话系统中的语言理解(LU)和对话状态跟踪(DST)进行学习。多任务训练使得编码用户话语的神经网络层用于 LU 和 DST,通过减少网络参数并提高性能。 本研究提出了 DST 框架,用于考虑有大量或无限可能值的插槽及以往对话中未见过的槽值,并探讨了在 LU 和 DST 输出上使用计划采样来弥合训练和推理之间的差距。
Nov, 2018
本文介绍了一种基于自注意力机制的会话状态追踪器,可以自动学习语境中的预定义槽之间的相关性,实验结果表明,在两个多领域任务导向对话数据集(包括 MultiWOZ 2.0 和 MultiWOZ 2.1)上取得了最先进的性能
Jan, 2021
本论文提出了一种多层次融合对话状态跟踪(DST)网络,通过建模每个对话轮次的交互,实现从以往对话历史和当前对话上下文中抽取对话状态信息,进行预测和融合,加强对当前对话状态的跟踪和理解,实验结果表明该模型在 MultiWOZ 2.0 和 MultiWOZ 2.1 数据集上取得了当前领先的 55.03% 和 59.07% 联合灵敏度值。
Jul, 2021
StateNet 是一种通用的对话状态跟踪器,它独立于值的数量,共享所有插槽的参数,并使用预训练的词向量而不是明确的语义字典来解决当前方法在大型对话域上难以扩展的挑战,并且在两个数据集上的实验显示,我们的方法不仅克服了这些限制,而且还显著优于最先进的方法的性能。
Oct, 2018
利用机器阅读理解(RC)方法在对话状态跟踪中,针对模型架构和数据集两个方面进行改进并应用到多种领域,实现了很好的跨领域通用性,并在少数据情形下(few-shot scenarios)表现出了更好的性能,即便在零状态跟踪数据下(zero-shot scenarios),也在 MultiWOZ 2.1 数据集中表现出很高的性能。
Apr, 2020
提出了一种新颖的基于预训练语言模型的任务驱动对话状态追踪方法,利用基于模式的提示和模式描述提高了性能,适用于多个基准测试(MultiWOZ 2.2、MultiWOZ 2.1 和 M2M),实现了最先进的性能。
Sep, 2021
本文提出一种 Dialogue State Distillation Network(DSDN)用于进行任务导向的对话系统中的 Dialogue State Tracking(DST),并且在 MultiWOZ 2.0 和 MultiWOZ 2.1 数据集上实验证明,该网络可以动态地利用先前的对话状态并避免引入误差传播,同时还可以有效地捕捉来自对话语境的插槽共同更新关系
Feb, 2023
该研究针对对话系统中特定目标和本体的对话状态跟踪模型的可扩展性问题,提出了一种将对话行为融入到对话模型设计中,利用机器阅读理解预测跨域对话状态的方法,并在实验结果中表现出较高的准确度,为未来的面向任务的对话系统提供了对话状态设计的指导。
Aug, 2022