使用多编码器融合策略来改善个性化回复选择
本文提出了四种不同的合成策略,来探讨在基于检索的聊天机器人中,采用自我或合作者角色的角色来描述个性化对话者对响应选择的影响,并将这些策略实现到三个代表模型中,这些模型分别基于 HRE、IMN 和 BERT。实证研究表明,在 Persona-Chat 数据集上,忽略了以前在对话中的合作者角色,IMN 和 BERT 模型的响应选择准确性可能会有所提高。此外,我们基于 BERT 实现的模型在上下文响应感知个性化合成策略下,在原数据和经过修订的数据上的准确性分别比以前的方法提高 2.7% 和 4.6%,在 top-1 准确性(hits@1)方面实现了新的最先进性能。
May, 2021
本文提出了一个新任务,即基于角色的移情对话,并首次对角色对移情反应的影响进行了实证研究。作者提供了一份新的大规模多领域数据集,使用高效的 CoBERT 模型进行回答选择,实验证明,当 CoBERT 模型基于移情对话训练时,角色更有助于提高移情反应,从而为人类对话中的角色和移情之间建立了经验证据。
Apr, 2020
最近机器学习和深度学习的进展已经导致在许多实际应用中广泛使用对话式人工智能。然而,利用能够提供对话背景或个性化调整的辅助信息以改善对话质量仍然非常具有挑战性。本文提出了一种新颖的 Persona-Coded Poly-Encoder 方法,它利用多流编码方案中的个人信息来改善对话回复生成的质量。通过在两个不同的基于个人的对话数据集上评估,并与两种最先进的方法进行对比,我们验证了所提出方法的有效性。我们的实验结果和分析表明,我们的方法在 BLEU 得分和 HR@1 方面相对于基准方法 Poly-Encoder 分别提高了 3.32%和 2.94%。更重要的是,我们的方法为对话任务中多模态数据的更好利用提供了一条途径。最后,我们的研究概述了推进个性化对话式人工智能技术的几个挑战和未来研究方向。
Sep, 2023
本研究提出了一种基于检索增强的个性化响应生成方法,通过在对话领域数据上设计分层的 Transformer 检索器和上下文感知前缀编码器,将检索到的信息更有效地融合到解码器中,从而在英语 Reddit 对话中生成更流畅和个性化的响应,与现有技术相比性能更优。
Jun, 2023
本文介绍了基于人物角色的模型来处理神经响应生成中的发言人的一致性问题。这些模型在分布式嵌入中编码人物角色,以捕捉个体特征,如背景信息和口语风格。在两个交流者之间捕捉交互属性的暂态发言人 - 被称呼者模型。我们的模型提高了感性和 BLEU 得分,在发言人的一致性上也有类似的提高。
Mar, 2016
本文提出了一种利用人格信息的记忆增强体系结构,将条件变分自动编码器模型与之结合,以生成多样化和可持续的聊天对话,并在基准 persona-chat 数据集上评估,结果表明,该模型可以提供比基线方法更多样化和更吸引人的基于人格的响应。
May, 2019
利用个人化引导的基于检索的聊天机器人在个性化对话中至关重要,但存在几个需要解决的挑战。为了解决这些挑战,我们提出了一种即插即用的个人化提示方法,该系统可以作为标准开放域聊天机器人使用,同时降低对个人化训练数据的依赖,提供更好的性能。这是首次使用提示序列解决个性化响应选择问题。
Oct, 2023
本文通过设计一种数据增强策略,运用神经问答检索模型,探讨了 Persona-Knowledge 的识别和响应生成任务,采用不同的解码技术进行对话生成,最终取得了 93.99% 的平均重合度和 23.62 分的 SacreBLEU 分数,成为当前 SOTA 的最佳实践。
Jul, 2022
本文探讨了基于 CEMO 数据集的语音和文本预训练模型在情感识别上的融合策略,研究表明基于多模态融合的交叉关注机制实现了更好的表现。同时,实验也表明在 CEMO 上,音频编码包含的情感信息比文本更为丰富。
Jun, 2023
本文提出了一种多任务框架,该框架联合识别对话的情感并根据所识别的情感生成响应,我们利用基于 BERT 的网络来创建一种共情系统,并使用混合目标函数来训练端到端网络,包括分类和生成损失函数,实验结果表明,我们的多任务框架优于现有的最先进模型。
May, 2022