上下文感知原型编辑的响应生成
本文提出了一种新的句子生成模型,该模型将从训练语料库中抽样一句原型句子,然后将其编辑成新句子,相比于传统的从头开始生成句子的模型,该原型 - 编辑模型在语言建模的困惑度上有所提高,并生成更高质量的输出,此外,该模型产生了一个潜在的编辑向量,捕捉句子相似性和句子层面的类比等可解释的语义。
Sep, 2017
通过检索训练样本并进行编辑来生成复杂输出的方法,特别是源代码生成,最近已经被广泛使用。本文提出了一种有效的方法,即使用基于任务的嵌入式检索模型,使生成器基于输入直接编辑生成输出,且在新的 GitHub Python 代码和 Hearthstone 卡牌基准模型上实现了改进效果。
Dec, 2018
介绍了一种基于 Semi-Parametric Editing with a Retrieval-Augmented Counterfactual Model (SERAC) 的模型编辑方法,具备内存高、编辑表达能力强的特点,能够高效地处理基于问答、事实核查和对话生成的 3 种具有挑战性的语言模型编辑问题。
Jun, 2022
本文介绍了一种基于预训练语言模型(GPT-2)的开放域对话模型,通过学习训练样本中上下文和回复之间的隐式模式信息,改进了生成回复的质量。我们提出了改进的预训练模型的定期抽样方法,并设计了一种回复感知机制,使生成的回复更加多样化和接近人类回复。通过在 Persona-Chat 和 DailyDialog 数据集上对所提出的模型(RAD)进行评估,实验结果表明我们的模型在大多数自动和手动评估指标上优于基线模型。
Sep, 2023
本文通过使用 context 动态提示的方法,改善了在多轮任务指向对话系统中的通用响应生成。在 MultiWOZ 2.2 数据集上验证后,相较于仅进行的前缀手段,综合值得分提高了 3 个绝对点,同时还将状态对话的提升幅度加大了 20 个绝对点。
Jan, 2023
该研究讨论使用有限的消息 - 响应数据学习开放域响应生成,提出了一种使用配对数据和非配对数据进行响应生成的方法,其中使用的生成模型由编码器 - 解码器和隐藏半马尔可夫模型组成,该方法在少量数据情况下能够显著优于现有最先进的响应生成模型。
Sep, 2019
研究了基于编码器 - 解码器模型的开放领域对话系统的自动回复方法,并提出一种将内容单词序列作为中间表示的方法,并通过将学习和评估的重点从完整句子转移到内容单词序列,提高了生成语句相关性的方法。
May, 2019
我们介绍了一个新的原型到样式(PS)框架,用于处理语言风格的对话生成,其利用 IR 系统提取响应原型,然后使用样式响应生成器根据所需语言风格获得高质量和样式响应。结果显示,该方法在两种语言的三个基准数据集上明显优于现有基线,特别是在域内和跨域评估中。
Apr, 2020
本文提出了一种基于序列到序列学习的个性化响应生成方法,使用初始化和适应两个阶段,模拟人的响应风格并生成个性化的响应,使用人工评估的方法进行模型评估。结果表明该方法可以很好地模拟人类的响应风格并生成个性化响应。
Jan, 2017
本研究提出了一种基于编辑机制的交互式文本到 SQL 生成方法,通过利用序列级的生成结果,结合上下文以及表结构信息来提高生成质量,并在 SParC 数据集上实现了优于当前最先进方法的生成效果。
Sep, 2019