训练数百万个个性化对话代理
本文介绍了一种简单而有效的数据中心方法,用于改善个性化对话代理。通过利用针对两个任务的原始 - 对偶结构(预测对话响应和个人资料之间的联系),我们增强了相关人物角色,以改进对话数据集 / 代理,并修复了基准数据集的注释问题,其巨大地增加了模型的精度,体现在 Persona-Chat 上的实验中,我们的方法在准确性上比预训练 LM 高出 11.7 个百分点。
Feb, 2022
通过个性化,在对话代理中提高用户参与度已经变得很重要,尤其是随着大规模语言模型的出现,能够生成流畅的回应。本文系统地调查了个性化对话生成的最新研究现状,包括使用的数据集、开发的方法论和应用的评价指标。涵盖了 22 个数据集,我们重点介绍了基准数据集和富有附加特征的新数据集。我们进一步分析了 2021-2023 年间顶级会议的 17 项重要工作,并确定了五种不同类型的问题。我们还透露了大规模语言模型在个性化对话生成方面的最新进展。我们的评估部分提供了这些工作中使用的全面评估维度和指标的综合总结。最后,我们讨论了当前面临的挑战,并展望了个性化对话生成领域未来研究的发展方向。
May, 2024
本文提出了一种基于预训练的个性化对话模型,利用个人属性嵌入来丰富对话语境,结合注意力路由结构进行解码,从而生成更为连贯且人物一致的回答。
Nov, 2019
通过建立 Generator-Critic 架构,使用 LLM 生成会话,借助 Synthetic-Persona-Chat 评估了高质量对话数据集对 NLP 模型的影响。
Dec, 2023
本研究旨在研究将个性特征应用于对话生成中以提供个性化对话的问题,并提出了一种基于关键 - 值对的嵌入式特征融合模块和两种新颖的特征感知机制,即基于对话者的关注机制和基于对话者的偏置机制,并构建了 PersonalDialog 数据集,该数据集包含来自海量讲话者的具有不同特征的大量多轮对话。实验结果表明,所提出的模型能够在不同情境下处理适当的特征。
Jan, 2019
本文提出一种个性化的端到端模型,以应用个性化技术来解决对话系统中的一些悬而未决的问题。该模型结合了 “个人资料模型” 和 “偏好模型” 两个子模型,并实践证明其在对话系统任务完成率和用户满意度等方面取得了良好表现。
Nov, 2018
提出了一种基于用户人格检测的个性化对话生成器,该方法使用条件变分推理建立用户潜在人格模型并利用后验鉴别正则化提高训练效果,在实证研究中实现比现有技术更高的对用户人格关注和提升了对话品质的效果。
Apr, 2022
本文提出了一种新的对话代理模型 ——Generative Conversation Control,它能够控制对话代理的个性,并通过控制该模型上一次与目标演员的对话,实现对话代理个性的表达,该模型在 Reddit 评论数据上进行了验证和评估,其效果得到了显著提高。
May, 2020
我们介绍了一种自然语言推理方法,用于事后将训练好的角色提取模型适应于新的场景,与现有的角色提取模型相比,我们的方法可以提供更高质量的角色提取结果,并需要较少的人工标注。
Jan, 2024