为了训练自然对话模型,作者创建了一个新的包含电影聊天信息和相关背景知识的数据集,并使用三种不同的模型对这个数据集进行了基准测试。
Sep, 2018
本文提出了一种利用人格信息的记忆增强体系结构,将条件变分自动编码器模型与之结合,以生成多样化和可持续的聊天对话,并在基准 persona-chat 数据集上评估,结果表明,该模型可以提供比基线方法更多样化和更吸引人的基于人格的响应。
May, 2019
本文提出了一种基于预训练的个性化对话模型,利用个人属性嵌入来丰富对话语境,结合注意力路由结构进行解码,从而生成更为连贯且人物一致的回答。
Nov, 2019
提出基于概念的实体对话模型面临数据分布和概念类型转移问题的研究。针对这些问题,本文通过提出最小化编辑框架,学习如何基于给定的概念对现有响应进行最小化编辑。通过对话人物的实验,提出了Grounded Minimal Editor(GME)来学习如何编辑有关对话人物的响应,并提出了PersonaMinEdit数据集来评估人物相关的最小编辑。实验结果显示,GME在保留知识和同理心的同时,可以显著提高对话模型的人物一致性,且在传递性上有较好的表现。
Sep, 2021
本文介绍了一种简单而有效的数据中心方法,用于改善个性化对话代理。通过利用针对两个任务的原始 -对偶结构(预测对话响应和个人资料之间的联系),我们增强了相关人物角色,以改进对话数据集/代理,并修复了基准数据集的注释问题,其巨大地增加了模型的精度,体现在 Persona-Chat 上的实验中,我们的方法在准确性上比预训练 LM 高出 11.7 个百分点。
Feb, 2022
本文提出基于大规模数据精化用户对话历史记录的 Persona 信息,设计一个 MSP 模型,利用多层信息精化从用户对话历史记录中稀疏提取最有价值的信息,结合其他相似用户数据提高个性化,实验结果表明我们的模型在生成更多信息和个性化响应方面的优越性。
Apr, 2022
本文提出使用neural Q&A模型结合全文对话上下文一起识别人设和知识的任务来识别相关Persona或Knowledge,以应对多重上下文的对话系统,通过建立新的grounding retrieval方法来实现。
Feb, 2023
本研究通过使用对比潜变量模型来将浓缩的用户描述信息聚类到稀疏的分类中,并与对话历史查询相结合,以生成更具个性化的响应。实验结果表明,该模型在个性化方面的优势在中英文数据集上都得到了证实。
May, 2023
使用明确的模式表示,检索相关模式以生成基于人物形象的回复的大型语言模型的对话生成方法。同时,通过从简单事实集合生成通用段落,然后从生成的段落归纳模式的方法来引导这些模式的创建。
Oct, 2023
我们介绍了一种自然语言推理方法,用于事后将训练好的角色提取模型适应于新的场景,与现有的角色提取模型相比,我们的方法可以提供更高质量的角色提取结果,并需要较少的人工标注。
Jan, 2024