该研究分析了基于序列到序列学习的生成回复任务的神经模型容易产生短而通用回复的问题,并通过分解黑匣子,详细分析了概率极限问题并提出了最大间隔排名正则化方法来避免模型偏向于这些回复,并通过实证实验验证了该方法的有效性。
Aug, 2018
本文提出了一种用于解决一对多问题的多映射机制, 其中具有多重映射模块的潜在机制用于建模语义映射,同时考虑到了目标响应的选择, 实现了后映射选择的准确优化,并引入了辅助匹配损失以促进 优化。实验结果表明,与现有方法相比,我们的模型在生成多个多样化,丰富的回复方面优越。
Jun, 2019
本研究基于强化学习,建立一个可生成更多交互式回复、更长且不重复的对话、更容易回答问题的聊天机器人的神经对话模型。
Jun, 2016
该文研究应用序列到序列模型解决对话响应生成问题的方法,使用基于注意力机制的解码器保证响应内容连贯性,并提出了一种名为‘glimpse-model’的实用方法以适应大型数据集,并使用随机 beam 搜索算法注入多样性来增加生成可接受响应的比例和整体响应长度。
Jan, 2017
该研究提出了一种通过对话上下文进行关系推理来指导神经响应生成的方法,并在多方对话中展示出优于基线模型的效果。
Mar, 2024
本文提出 SpaceFusion 模型,通过新型规则项,整合了序列到序列模型和自编码器模型的潜在空间,作了多样性和相关性的联合优化从而提高对话模型输出的质量。实验数据表明,与强基线相比,我们的方法在多样性和相关性方面都取得了极大改进。
Feb, 2019
本文提出了一种基于递归神经网络的模型,可以根据答案生成自然语言问题,并介绍了一种使用监督学习和强化学习相结合的方式对模型进行训练,然后通过策略梯度技术微调模型以最大化几个衡量问题质量的奖励,其中一个奖励是一个问题回答系统的表现,并通过最近的问答数据集 SQuAD 对模型进行了训练和评估。
May, 2017
本文提出了一个基于生成对抗网络的两步框架,通过自编码学习语句的有意义表征,并学习将输入映射到响应表征上,最终将其解码为响应句子,经定量和定性评估证明相对于现有的最先进方法,该模型生成的响应更具流畅性、相关性和多样性。
Nov, 2019
本文提出了一种基于 BART 的神经响应生成模型,通过多任务学习生成和分类,并注重情感,在对生成响应的同时识别情感。自动评估和众包手动评估显示,该模型使生成的响应更富有情感意识。
May, 2021
本研究对开源聊天机器人的多种回复生成方法进行了系统评估,提出了利用手动注释筛选出的多个正向回复和负向回复,从而提高模型效果的新训练数据,并实验证明性能较之采用对抗训练数据有更显著提升。
Aug, 2022