提出了一种新颖的 DST 框架,它通过有关特定 slot 值更改的过去话语来识别相关历史上下文,并将其与加权系统话语一起使用以确定相关上下文,实验证明该方法在 WoZ 2.0 和 MultiWoZ 2.0 餐厅领域数据集上比先前的 GLAD 模型提高了 2.75%和 2.36%的目标准确性。
Apr, 2019
本文介绍了一种基于深度学习的可伸缩的多领域对话状态跟踪方法,通过引入一个新的状态跟踪框架,该框架独立于具体的槽值集合,并将对话状态表示为候选值集合的分布,此方法能够快速适应新领域,提高跨领域和可扩展性。
Dec, 2017
通过将对话状态追踪重新构想为一个打包的例子指导的问题回答任务,以利于持续学习并减少服务特定的记忆,该方法通过学习在过程中上下文的例子以及结合对话层次的记忆回放方法,无需依赖于任何复杂的规范化或参数扩展方法,便可获得 DST 持续学习度量上的最先进性能。
May, 2023
研究表明,当前的基准数据集不足以处理在谈话中改变主意的情况,当 template-based 的 turnback utterances 注入到数据集中时,DST 模型无法参考之前的用户偏好,导致性能显著下降,但是当这些场景在训练集中被明确设计时,这种性能下降是能够得到恢复的,这表明问题不在 DST 模型本身,而在于基准数据集的构建。
Aug, 2021
我们探讨了基于任务导向的对话系统的对话信念状态跟踪(DST)问题。通过以 Prompt 为基础进行少样本学习,我们证明了 Prompt-based 方法在 DST 的 Few-shot 学习中具有潜在的潜力,并提供了未来改进的方向。
Apr, 2022
对 ChatGPT 在对话状态跟踪 (DST) 任务中的能力进行了初步评估,发现其表现出色。为了解决 ChatGPT 的局限性,提出了基于小型开源模型的 LLM 驱动的 DST 框架 LDST,通过领域 - 槽位指令调优方法,LDST 在零样本和少样本设置下相较于之前的 SOTA 方法取得了显著的性能提升。提供源代码以保证可复现性。
Oct, 2023
对于基于大语言模型的聊天系统,我们提出了一种结合对话分割和状态跟踪的方法,在开放领域对话系统中处理来自演化的大语言模型聊天系统的复杂性并提高跟踪性能。我们的方法通过引入一种新的基于先前分析的回忆的接地机制来改善对长对话上下文的跟踪,并在一系列数据集和设置中得到了出色的表现,证明了其在下一代大语言模型聊天系统中的有效性和鲁棒性。
Sep, 2023
本文描述了我们在 DSTC11 中参与的具有极大成功的模型的工程努力,该模型由三个主要模块组成:(1) 自动语音识别误差校正,(2) 基于文本的对话系统用于估计插槽和值,(3) 后处理用于恢复估计的插槽值的错误。我们的实验证明了对于口语对话语料库,使用明确的自动语音识别误差校正模块、后处理和数据增强对于调整基于文本的对话状态跟踪器至关重要。
Aug, 2023
本文提出了一种新的架构,利用多粒度的注意力机制来更稳健地编码对话历史和槽的语义,用于实现准确的跨域对话状态跟踪,并在 MultiWoZ 2.1 数据集上将联合目标准确率提高了 5%(绝对值),并在零 - shot 设置下比现有最先进技术提高至多 2%(绝对值)。
Feb, 2020
利用 GPT-4 生成对话数据,通过在 LLaMA 2 上进行两阶段的微调,减少对话收集和注释成本,并表现出比仅使用真实数据训练的基准模型更好的性能,同时适应实际场景中的动态需求。
May, 2024