本文介绍了一种基于深度学习的可伸缩的多领域对话状态跟踪方法,通过引入一个新的状态跟踪框架,该框架独立于具体的槽值集合,并将对话状态表示为候选值集合的分布,此方法能够快速适应新领域,提高跨领域和可扩展性。
Dec, 2017
该研究提出了一种基于固定大小记忆和有选择的覆盖机制的对话状态跟踪模型,其将DST分解为两个子任务,并引导解码器集中于其中一个任务,以提高DST性能。
Nov, 2019
本文提出了一种新的架构,利用多粒度的注意力机制来更稳健地编码对话历史和槽的语义,用于实现准确的跨域对话状态跟踪,并在MultiWoZ 2.1数据集上将联合目标准确率提高了5%(绝对值),并在零-shot设置下比现有最先进技术提高至多2%(绝对值)。
Feb, 2020
对话状态跟踪是对话系统中的重要环节,虽然神经方法实现了显著的进展,但对话系统的一些关键方面,如可拓展性等仍未得到充分探索,本文提出了未来研究的几个方向。
Jul, 2022
本文提出了一种名为DiSTRICT的基于有关上下文调整的DST的方法,通过检索与给定对话高度相关的训练示例,优化模型,相对于现有方法,使用较小的模型在各种零射和少样本设置下实现更好的性能,在资源不足的实际部署中提供了重要的优势
Dec, 2022
该论文研究了如何在对话管理中跟踪用户的信念,通过使用软提示令牌嵌入来学习任务属性,可以显著减少先前工作所需的参数数量,同时实现更好的低资源对话状态跟踪性能。
Jan, 2023
我们使用 ChatGPT ,一个通用语言模型,展示了它在零-shot DST 上达到的最先进的表现,并证明了通用模型在专业系统替代方面的能力受到其属性的限制,但我们认为通用模型的语境学习能力很可能成为支持专门的动态对话状态跟踪器开发的有力工具。
Jun, 2023
通过函数调用,我们提出了一种改进零样本对话状态跟踪的方法,以提高大型语言模型的任务导向对话的效果,并实现了与当前最先进模型的性能相媲美。
Feb, 2024
利用GPT-4生成对话数据,通过在LLaMA 2上进行两阶段的微调,减少对话收集和注释成本,并表现出比仅使用真实数据训练的基准模型更好的性能,同时适应实际场景中的动态需求。
May, 2024
本研究解决了现有对话状态跟踪(DST)方法在适应新槽值方面的局限性,提出了一种集成领域分类和DST的零-shot开源词汇系统。通过将DST重新表述为问答任务,并采用自我精炼提示,该系统实现了比现有方法高出20%的联合目标准确率,且对LLM API的请求减少了90%。
Sep, 2024