以语言模型为少样本学习者的任务导向式对话系统
本研究探讨了数据稀缺对于多领域任务导向对话系统快速发展的限制,并提出了一种基于TransferTransfo和生成模型预训练的对话模型,并在MultiWOZ数据集上进行了验证,结果显示该模型可以有效地绕过显式策略和语言生成模块来实现对于任务的导向和推理。该方法有望缓解数据稀缺问题,进而支持构建更具吸引力和更流畅的任务导向的对话代理人。
Jul, 2019
该研究提出了Attention-Informed Mixed-Language Training (MLT)方法,用于跨语种任务定向对话系统的零样本适应。该方法通过利用极少的任务相关平行词对来生成代码交换句子,并利用注意层给出的分数提取源单词,最终实现了显著的零-shot适应性能提升。
Nov, 2019
该论文提出 FewShotWoz 模型作为 Natural Language Generation 模块,使用 SC-GPT 模型进行预训练来实现带有有限数量 labeled data 的多领域适配,通过实验证明其效果显著优于已有方法。
Feb, 2020
在大规模预训练语言模型上进行fine-tuning可以显著提高模型在 NLP 任务中的任务值线表现,同时还证明了 scaling up 语言模型可以大大改善任务独立的few-shot learning表现,并探讨了GPT-3模型优势和局限性。
May, 2020
本文探讨了通过基于提示的少样本学习在对话任务中的应用,通过对多种大小的语言模型进行测试,提出一种新的无需微调的提示分类器,并结合技能选择器创建了一种称为Few-Shot Bot的端到端聊天机器人,只需使用少量对话示例便可以完成知识检索并生成人类般自然的响应。
Oct, 2021
通过设计双提示学习框架,利用预训练语言模型的语言理解和生成能力,将对话状态跟踪任务高效地转化为一项语言建模任务,提高了低资源情况下对话状态跟踪的效率。实验证明,该方法优于现有的少样本学习方法,并且可生成未见过的槽位。
Jan, 2022
本研究提出了一个基于in-context learning (ICL)框架、利用大型预训练语言模型 (LM)进行零样本和小样本学习的对话状态跟踪 (DST)方法,重点是通过将DST优化为文本到SQL问题和使用新颖的对话检索方法,以检索标注对话作为样本来提高对答案问题的准确性。在MultiWOZ上的实证结果表明,IC-DST法在小样本情境中明显优于以往最先进的模型,在只输入固定任务指令的零样本情境下,也比以往的零样本方法表现得更好。
Mar, 2022
我们探讨了基于任务导向的对话系统的对话信念状态跟踪(DST)问题。通过以Prompt为基础进行少样本学习,我们证明了Prompt-based方法在DST的Few-shot学习中具有潜在的潜力,并提供了未来改进的方向。
Apr, 2022
对话系统需要产生高语义可信度的能实现多种类型对话行为的回应。本文提出了一种新颖的少样本过度生成与排序方法来实现对话行为的可控生成,并将其与八种少样本提示方式进行了比较,其中包括使用文本风格转移方法从文本伪参考中生成。在生成过程中,我们开发了六个自动排序函数,可以识别具有正确对话行为和高语义准确性的输出。我们在三个领域和四个预训练语言模型上进行了测试,结果显示,几种提示设置实现了完美的对话行为准确性,并且语义准确率接近完美(99.81%),表现优于少样本微调模型。
Jul, 2023
通过使用大型语言模型 (LLMs),我们提出了一种为 Dialog State Tracking (DST) 定制的数据生成框架,使用对话模板和对话模式,合成自然、连贯、流畅的带有 DST 注释的对话,从而实现了少样本学习,且相较于使用人工标注的训练数据的少样本学习设置,我们的方法仅仅损失了大约 2% 的性能。
Feb, 2024