生成、删除和重写:改善对话生成中角色连贯性的三阶段框架
本文提出了一种利用人格信息的记忆增强体系结构,将条件变分自动编码器模型与之结合,以生成多样化和可持续的聊天对话,并在基准 persona-chat 数据集上评估,结果表明,该模型可以提供比基线方法更多样化和更吸引人的基于人格的响应。
May, 2019
本文提出了一种基于预训练的个性化对话模型,利用个人属性嵌入来丰富对话语境,结合注意力路由结构进行解码,从而生成更为连贯且人物一致的回答。
Nov, 2019
利用自然语言推断技术探讨生成持续一致人格的对话,提出基于强化学习框架使用从响应-人格对得到的自然语言推断信号作为奖励来生成至关一致的对话,并通过对话者的关注机制编码器-解码器来生成基于人格的响应,使用对抗训练的自然度模块和基于自然语言推断的一致性模块来评估生成的响应的一致性,实验表明该方法优于强大的生成基线,特别是在生成响应的人格一致性方面。
Nov, 2019
本文提出了一种新的对话代理模型——Generative Conversation Control,它能够控制对话代理的个性,并通过控制该模型上一次与目标演员的对话,实现对话代理个性的表达,该模型在 Reddit 评论数据上进行了验证和评估,其效果得到了显著提高。
May, 2020
本文提出了四种不同的合成策略,来探讨在基于检索的聊天机器人中,采用自我或合作者角色的角色来描述个性化对话者对响应选择的影响,并将这些策略实现到三个代表模型中,这些模型分别基于 HRE、IMN 和 BERT。实证研究表明,在 Persona-Chat 数据集上,忽略了以前在对话中的合作者角色,IMN 和 BERT 模型的响应选择准确性可能会有所提高。此外,我们基于 BERT 实现的模型在上下文响应感知个性化合成策略下,在原数据和经过修订的数据上的准确性分别比以前的方法提高 2.7% 和 4.6%,在 top-1 准确性(hits@1)方面实现了新的最先进性能。
May, 2021
提出了一种基于用户人格检测的个性化对话生成器,该方法使用条件变分推理建立用户潜在人格模型并利用后验鉴别正则化提高训练效果,在实证研究中实现比现有技术更高的对用户人格关注和提升了对话品质的效果。
Apr, 2022
本文通过设计一种数据增强策略,运用神经问答检索模型,探讨了Persona-Knowledge的识别和响应生成任务,采用不同的解码技术进行对话生成,最终取得了93.99%的平均重合度和23.62分的SacreBLEU分数,成为当前SOTA的最佳实践。
Jul, 2022
该论文提出了一种新的检索到预测范例来解决个性化聊天机器人中OOP问题,并通过采用实际人物进行后验转换来进一步缓解训练和推理之间的差距。并通过IT-ConvAI2和ConvAI2的广泛实验表明,我们提出的模型在自动指标和人类评估方面都取得了可观的改进。
Aug, 2022
提出一个模型无关的框架 ORder Insensitive Generation (ORIG),解决了拼接个性化文本和对话历史输入顺序对响应生成的影响,从而提高了生成的响应一致性和效果。在 Persona-Chat 数据集上,实验表明我们方法的有效性和优越性。
May, 2023
通过建立Generator-Critic架构,使用LLM生成会话,借助Synthetic-Persona-Chat评估了高质量对话数据集对NLP模型的影响。
Dec, 2023