本研究提出一个评估聊天机器人响应的系统,利用明确的反馈机制改进神经响应图生成模型,从而获得更具连续性和参与度的响应。
Apr, 2019
该研究分析了基于序列到序列学习的生成回复任务的神经模型容易产生短而通用回复的问题,并通过分解黑匣子,详细分析了概率极限问题并提出了最大间隔排名正则化方法来避免模型偏向于这些回复,并通过实证实验验证了该方法的有效性。
Aug, 2018
研究表明,可训练的语句规划可生成复杂的信息呈现,并易于个性化定制,且个性化的句子规划器通常比针对人群进行训练和测试的模型表现更好。同时,研究还评估了不同特征集的贡献,并显示在该应用中,n-gram 特征通常能达到基于更高级别的语言表示的特征的效果。
Oct, 2011
本研究提供了一种训练多领域、基于递归神经网络的语言生成器的程序,包含了多个适应步骤,并利用伪造数据和领域内句子的优化目标函数,旨在在新的、看不见的领域内显著减少培训的数据需求,其语料库评估结果和主观测试都表示该程序可以在保证 BLEU 分数和槽误差率竞争力的同时大幅提高语言生成器性能。
Mar, 2016
本文提出通过对话策略来规划目标响应的内容和风格,促进神经响应生成方法生成更为准确、有效和吸引人的回应,通过 Topical-Chat 数据集的自动注释,得到包括对话上下文、目标对话行为、话题信息等方面的行动计划。作者进一步调查了不同的对话策略模型来预测行动计划,证明了在句子级别和依托对话策略的生成模型所生成的回复更具适切性,并且控制效果更为出色。
May, 2020
本文介绍 DOM-Seq2Seq,一种基于领域目标序列到序列模型和领域分类器的领域感知神经网络模型,用于生成具备智能响应的域感知对话系统,并通过对比 Seq2Seq 模型的性能指标进行评估。
Aug, 2017
本文提出了一种混合神经对话模型,其结合了检索和生成方法的优点,并经实验证明其在 Twitter 和 Foursquare 数据上优于检索方法和生成方法(包括最近提出的基于知识的神经对话模型),这将为构建对话系统提供新的思路。
本文提出了神经编码器 - 解码器的语言生成模型中对输出风格和主题进行干预的简单灵活的训练和解码方法,通过基于选择性采样的解码方法和遵循性模型将神经生成过程分解为易于实现的子问题,同时通过一定限制方式和主题限制进行生成,该方法在人机交互任务中的表现不会降低输出质量。
Sep, 2017
本文提出采用条件变异自编码器设计的深度学习模型,引入人格特征以及两个新的正则化项,以生成既考虑话语的人格又相关的回答,进而改善了基于用户画像的回答生成表现,并提出了三个用户画像定向指标,验证了该方法的有效性。
Nov, 2019
本研究提出了 AdaND 模型,通过上下文智能生成不同的编码器 - 解码器参数,包含上下文感知和主题感知两种自适应参数机制。在大规模实际对话数据集上进行的大量实验表明,我们的模型在定量和定性评价方面均取得了更好的性能。
Jan, 2020