与您共同进化:个性化对话代理与动态调整的人格
本篇论文提出基于模型无关元学习的个性化对话学习方法,不需要使用人称描述符。该模型通过仅利用从同一用户收集的几个对话样本来快速适应新的人称,与基于人称描述符的回复不同。实验结果表明,相对于非元学习基准,该解决方案在自动评估指标和人工评估的流畅性和一致性方面表现更好。
May, 2019
利用自然语言推断技术探讨生成持续一致人格的对话,提出基于强化学习框架使用从响应-人格对得到的自然语言推断信号作为奖励来生成至关一致的对话,并通过对话者的关注机制编码器-解码器来生成基于人格的响应,使用对抗训练的自然度模块和基于自然语言推断的一致性模块来评估生成的响应的一致性,实验表明该方法优于强大的生成基线,特别是在生成响应的人格一致性方面。
Nov, 2019
本文提出了一种新的对话代理模型——Generative Conversation Control,它能够控制对话代理的个性,并通过控制该模型上一次与目标演员的对话,实现对话代理个性的表达,该模型在 Reddit 评论数据上进行了验证和评估,其效果得到了显著提高。
May, 2020
本文提出了四种不同的合成策略,来探讨在基于检索的聊天机器人中,采用自我或合作者角色的角色来描述个性化对话者对响应选择的影响,并将这些策略实现到三个代表模型中,这些模型分别基于 HRE、IMN 和 BERT。实证研究表明,在 Persona-Chat 数据集上,忽略了以前在对话中的合作者角色,IMN 和 BERT 模型的响应选择准确性可能会有所提高。此外,我们基于 BERT 实现的模型在上下文响应感知个性化合成策略下,在原数据和经过修订的数据上的准确性分别比以前的方法提高 2.7% 和 4.6%,在 top-1 准确性(hits@1)方面实现了新的最先进性能。
May, 2021
提出了一种基于用户人格检测的个性化对话生成器,该方法使用条件变分推理建立用户潜在人格模型并利用后验鉴别正则化提高训练效果,在实证研究中实现比现有技术更高的对用户人格关注和提升了对话品质的效果。
Apr, 2022
该论文提出了一种新的检索到预测范例来解决个性化聊天机器人中OOP问题,并通过采用实际人物进行后验转换来进一步缓解训练和推理之间的差距。并通过IT-ConvAI2和ConvAI2的广泛实验表明,我们提出的模型在自动指标和人类评估方面都取得了可观的改进。
Aug, 2022
本文提出一种基于人设适应注意力(PAA)的对话生成框架,该框架可在考虑对话上下文和人设的情况下,自适应地整合来自人设和上下文信息的权重。与强基准相比,实验结果表明,所提出的PAA框架在自动和人类评估方面均具有优越性,并且与在全数据设置下训练的大型模型相比,所提出的PAA方法可以在低资源组态下表现出与之相似的结果。
Oct, 2022
PersonaPKT通过轻量化的迁移学习方法,将每个角色表示为连续向量,从而在不依赖于显式角色描述的情况下构建具有一致性角色的对话模型,从而提高了隐私保护和存储效率。
Jun, 2023
通过个性化,在对话代理中提高用户参与度已经变得很重要,尤其是随着大规模语言模型的出现,能够生成流畅的回应。本文系统地调查了个性化对话生成的最新研究现状,包括使用的数据集、开发的方法论和应用的评价指标。涵盖了22个数据集,我们重点介绍了基准数据集和富有附加特征的新数据集。我们进一步分析了2021-2023年间顶级会议的17项重要工作,并确定了五种不同类型的问题。我们还透露了大规模语言模型在个性化对话生成方面的最新进展。我们的评估部分提供了这些工作中使用的全面评估维度和指标的综合总结。最后,我们讨论了当前面临的挑战,并展望了个性化对话生成领域未来研究的发展方向。
May, 2024
利用LLM系列模型将不同领域,如医疗保健、教育和金融等纳入其中,标志着人工智能领域的重大进步。个性化应用的增长需求促使设计有不同特质的对话代理(CAs)。本文从探讨赋予CAs独特特质的基本原理和影响展开,过渡到LLM时代CAs的个人化和拟人化的广泛讨论。我们深入研究了在LLM为基础的CAs中实施特质的特定应用,这不仅有益而且对于LLM-CAs来说是至关重要的。文章强调了对特质整合的细致处理的必要性,并突出了可能出现的潜在挑战和伦理困境。重点关注维护特质一致性的重要性,建立健全的评估机制,并确保特质属性与领域专业知识相辅相成。
May, 2024