基于角色的对话生成模型无关数据操作方法
本文提出了一种数据操纵框架来通过增强和突显有效的学习样本以及同时减少无效样本的影响来主动重塑数据分布,以优化对话生成模型的训练样本。通过选择性地增加训练样本并为每个实例分配重要性权重来转换训练数据。结果表明,该框架能够改善对话生成性能,符合各种自动评估指标和人类判断。
Apr, 2020
本篇论文提出基于模型无关元学习的个性化对话学习方法,不需要使用人称描述符。该模型通过仅利用从同一用户收集的几个对话样本来快速适应新的人称,与基于人称描述符的回复不同。实验结果表明,相对于非元学习基准,该解决方案在自动评估指标和人工评估的流畅性和一致性方面表现更好。
May, 2019
本文提出了一种基于预训练的个性化对话模型,利用个人属性嵌入来丰富对话语境,结合注意力路由结构进行解码,从而生成更为连贯且人物一致的回答。
Nov, 2019
本文提出了一种新的对话代理模型 ——Generative Conversation Control,它能够控制对话代理的个性,并通过控制该模型上一次与目标演员的对话,实现对话代理个性的表达,该模型在 Reddit 评论数据上进行了验证和评估,其效果得到了显著提高。
May, 2020
本研究旨在研究将个性特征应用于对话生成中以提供个性化对话的问题,并提出了一种基于关键 - 值对的嵌入式特征融合模块和两种新颖的特征感知机制,即基于对话者的关注机制和基于对话者的偏置机制,并构建了 PersonalDialog 数据集,该数据集包含来自海量讲话者的具有不同特征的大量多轮对话。实验结果表明,所提出的模型能够在不同情境下处理适当的特征。
Jan, 2019
通过建立 Generator-Critic 架构,使用 LLM 生成会话,借助 Synthetic-Persona-Chat 评估了高质量对话数据集对 NLP 模型的影响。
Dec, 2023
提出了一种基于用户人格检测的个性化对话生成器,该方法使用条件变分推理建立用户潜在人格模型并利用后验鉴别正则化提高训练效果,在实证研究中实现比现有技术更高的对用户人格关注和提升了对话品质的效果。
Apr, 2022
本文介绍了一种简单而有效的数据中心方法,用于改善个性化对话代理。通过利用针对两个任务的原始 - 对偶结构(预测对话响应和个人资料之间的联系),我们增强了相关人物角色,以改进对话数据集 / 代理,并修复了基准数据集的注释问题,其巨大地增加了模型的精度,体现在 Persona-Chat 上的实验中,我们的方法在准确性上比预训练 LM 高出 11.7 个百分点。
Feb, 2022
我们介绍了一种自然语言推理方法,用于事后将训练好的角色提取模型适应于新的场景,与现有的角色提取模型相比,我们的方法可以提供更高质量的角色提取结果,并需要较少的人工标注。
Jan, 2024
本文介绍了一个包含 500 万个人物角色和 7 亿个依据人物角色的对话的新数据集,研究表明,使用此数据集训练对话系统,尤其是当基于文本人物角色时,可以提高其表现,并且在 Zhang 等人(2018)的数据上进行微调可以实现最新的成果。
Sep, 2018