模拟:在智能邮件响应中建模个性
本文介绍了基于人物角色的模型来处理神经响应生成中的发言人的一致性问题。这些模型在分布式嵌入中编码人物角色,以捕捉个体特征,如背景信息和口语风格。在两个交流者之间捕捉交互属性的暂态发言人 - 被称呼者模型。我们的模型提高了感性和 BLEU 得分,在发言人的一致性上也有类似的提高。
Mar, 2016
研究探讨了角色扮演对大型语言模型的影响,通过为七个大型语言模型分配来自 12 个类别的 162 个不同角色扮演来回答来自五个数据集的问题,发现角色扮演会引起模型行为的多样性和泛化性。
Jul, 2024
本文提出了一个新任务 ——Response Forecasting on Personas for News Media,并创建了一个包含 13,357 条回复的数据集,以预测不同人物或人群对新闻事件的不同响应,其中任务除了预测评论的情感极性和强度外,还引入了个性化因素,利用最新的神经语言模型进行研究,分析结果表明,加入人物特征有助于预测响应的所有维度,同时该任务的制定还能够应用于社交网络分析中的极端意见群体讨论等多种有趣应用。
May, 2023
本文提出了一个新任务,即基于角色的移情对话,并首次对角色对移情反应的影响进行了实证研究。作者提供了一份新的大规模多领域数据集,使用高效的 CoBERT 模型进行回答选择,实验证明,当 CoBERT 模型基于移情对话训练时,角色更有助于提高移情反应,从而为人类对话中的角色和移情之间建立了经验证据。
Apr, 2020
使用明确的模式表示,检索相关模式以生成基于人物形象的回复的大型语言模型的对话生成方法。同时,通过从简单事实集合生成通用段落,然后从生成的段落归纳模式的方法来引导这些模式的创建。
Oct, 2023
本文提出了一个基于个人化的情感支持框架,结合了情感对话模型和基于策略的可控生成方法,可根据寻求者的个人信息提供个性化的情感支持,该框架实验结果表明 PAL 模型胜过其他基准模型。
Dec, 2022
本文提出了四种不同的合成策略,来探讨在基于检索的聊天机器人中,采用自我或合作者角色的角色来描述个性化对话者对响应选择的影响,并将这些策略实现到三个代表模型中,这些模型分别基于 HRE、IMN 和 BERT。实证研究表明,在 Persona-Chat 数据集上,忽略了以前在对话中的合作者角色,IMN 和 BERT 模型的响应选择准确性可能会有所提高。此外,我们基于 BERT 实现的模型在上下文响应感知个性化合成策略下,在原数据和经过修订的数据上的准确性分别比以前的方法提高 2.7% 和 4.6%,在 top-1 准确性(hits@1)方面实现了新的最先进性能。
May, 2021
该论文提出了一种新的检索到预测范例来解决个性化聊天机器人中 OOP 问题,并通过采用实际人物进行后验转换来进一步缓解训练和推理之间的差距。并通过 IT-ConvAI2 和 ConvAI2 的广泛实验表明,我们提出的模型在自动指标和人类评估方面都取得了可观的改进。
Aug, 2022
本文提出并研究了一种新的端到端方法以自动生成短电子邮件回复,称为 “Smart Reply”。它利用先进的大型深度学习生成语义多元化的建议来作为电子邮件的完整响应,并在 Inbox 邮箱中使用,协助 10%的所有移动响应。该系统具有处理每天数亿条消息的能力,利用了最先进的大规模深度学习技术,同时解决了响应多样性和可扩展性等问题,并引入了一种仅需要少量明确标记的数据进行语义聚类的新方法。
Jun, 2016
提出了一种基于用户人格检测的个性化对话生成器,该方法使用条件变分推理建立用户潜在人格模型并利用后验鉴别正则化提高训练效果,在实证研究中实现比现有技术更高的对用户人格关注和提升了对话品质的效果。
Apr, 2022