本文提出了一种连续的提示调整参数有效的框架,可避免对旧任务的遗忘并在任务之间实现知识转移,验证实验表明该方法在对话状态跟踪领域中具有有效性和高效性。
Mar, 2022
本文介绍了一种基于最新的神经网络连续学习技术的领域无关的神经对话模型,同时提出了一种新颖的神经连续学习算法,能够以数据 - 效率的方式跨越不同任务积累技能,在客户支持领域通过从合成对话或人类之间的对话到人 - 计算机对话的连续技能转移来验证方法的功效。
Dec, 2017
本文提出了一种轻量级且透明的基于潜在结构的对话生成模型,通过解析离散潜变量来实现可解释性,实证表明该模型相对于四种强基准模型有更好的对话质量和更快的运行速度。
Oct, 2022
本文提出了一个能够让我们通过时间添加新的领域和功能而不需要付出整个系统重新训练的任务导向对话系统的连续学习基准。我们在四个不同的设置下连续地学习了 37 个领域,包括意图识别、状态跟踪、自然语言生成和端到端。此外,我们实现并比较了多个已有的持续学习基线,并提出了一种简单而有效的基于残余适配器的结构方法。我们的实验证明,所提出的结构方法和简单的回放策略表现相当好,但是它们都比多任务学习基线表现差,后者将所有数据一次性展示出来,这表明对话系统的连续学习是一项具有挑战性的任务。此外,我们还揭示了在参数使用和内存大小方面不同连续学习方法之间的几个权衡,这对任务导向对话系统的设计非常重要。我们还发布了所提出的基准测试以及几个基线,以推动更多的研究方向。
Dec, 2020
本文提出了基于弱监督学习的三阶段学习框架和一种变体 Transformer 来构建知识驱动的对话系统。评估结果表明该方法在少量训练数据甚至零资源的情况下仍然表现出色。
Sep, 2021
我们使用预训练的语言模型来研究基于知识的对话生成,通过知识选择模块和无监督方法来优化知识选择和响应生成,实验结果表明,我们的模型在自动评估和人类判断方面都显著优于现有方法。
Oct, 2020
使用预训练 Transformers 并扩展它们与 Adapters,我们开发了一种方法来增量训练模型处理任务序列,成功地避免了灾难性遗忘并且在多个任务上表现良好。
本研究提出了一个基于交互式重复参考任务的连续学习框架,以更准确和高效地与伙伴通信,并通过 COCO 的模拟和与人类伙伴的实时参考游戏实验进行了评估。
Nov, 2019
本文探究了大规模预训练在知识引导对话中的应用。通过各种方法获取大型模型的知识,利用后验重加权和嘈杂训练策略进一步挖掘其价值,并在两个基准数据上进行了实验,结果表明其优于现有的最新方法。
Nov, 2022
本文提出了一种使用计算有效的适配器方法在多个不同领域适应的方法,其通过冻结预先训练的语言模型并与每个节点相关联的适配器权重组合,实现相关领域之间的参数共享。GPT-2 和 C4 中最多的 100 个网站上的实验结果表明,这种方法可以全面提高领域内性能,并提供了一种推理时间算法来推出新领域的泛化性能,同时只能增加成本。
Dec, 2021