PromptAttack:通过敌对提示探测对话状态追踪器
我们探讨了基于任务导向的对话系统的对话信念状态跟踪(DST)问题。通过以 Prompt 为基础进行少样本学习,我们证明了 Prompt-based 方法在 DST 的 Few-shot 学习中具有潜在的潜力,并提供了未来改进的方向。
Apr, 2022
通过设计双提示学习框架,利用预训练语言模型的语言理解和生成能力,将对话状态跟踪任务高效地转化为一项语言建模任务,提高了低资源情况下对话状态跟踪的效率。实验证明,该方法优于现有的少样本学习方法,并且可生成未见过的槽位。
Jan, 2022
该论文研究了如何在对话管理中跟踪用户的信念,通过使用软提示令牌嵌入来学习任务属性,可以显著减少先前工作所需的参数数量,同时实现更好的低资源对话状态跟踪性能。
Jan, 2023
通过将对话状态追踪重新构想为一个打包的例子指导的问题回答任务,以利于持续学习并减少服务特定的记忆,该方法通过学习在过程中上下文的例子以及结合对话层次的记忆回放方法,无需依赖于任何复杂的规范化或参数扩展方法,便可获得 DST 持续学习度量上的最先进性能。
May, 2023
通过定义多层次状态结构和使用基于提示的生成方法,我们提出了一种医疗对话系统中跟踪对话状态的解决方案,该方法有效地解决了数据稀缺问题,并表现出超过其他方法的性能。
Mar, 2022
本文描述了我们在 DSTC11 中参与的具有极大成功的模型的工程努力,该模型由三个主要模块组成:(1) 自动语音识别误差校正,(2) 基于文本的对话系统用于估计插槽和值,(3) 后处理用于恢复估计的插槽值的错误。我们的实验证明了对于口语对话语料库,使用明确的自动语音识别误差校正模块、后处理和数据增强对于调整基于文本的对话状态跟踪器至关重要。
Aug, 2023
对话状态跟踪是对话系统中的重要环节,虽然神经方法实现了显著的进展,但对话系统的一些关键方面,如可拓展性等仍未得到充分探索,本文提出了未来研究的几个方向。
Jul, 2022
利用 GPT-4 生成对话数据,通过在 LLaMA 2 上进行两阶段的微调,减少对话收集和注释成本,并表现出比仅使用真实数据训练的基准模型更好的性能,同时适应实际场景中的动态需求。
May, 2024
通过元学习在对话领域稳定模型,设计新的训练方法改进检索机制寻找理想的示例,在句子长度有限的情况下,使用显著性模型限制对话文本长度,从而在 MultiWOZ 上实现了具有竞争力的少样本对话状态跟踪结果。
Feb, 2023