通过后验正则法联合建模历史和未来信息,仅利用历史信息用于推理的方式,优于所有基线模型,有效提高了目标导向对话系统中对用户意图、情感和对话状态的理解。
Mar, 2022
提出了一种基于用户人格检测的个性化对话生成器,该方法使用条件变分推理建立用户潜在人格模型并利用后验鉴别正则化提高训练效果,在实证研究中实现比现有技术更高的对用户人格关注和提升了对话品质的效果。
Apr, 2022
本文提出使用图像来增强样本数量的方法,以学习针对含有图像信息的对话的应答生成模型,并利用条件变分自编码框架下的响应生成器和图像重构器来刻画图像和文本信息之间的关系。实验表明,该方法在低资源情况下可以有效增加图像驱动类对话的训练样本,同时保持应答内容与上下文的相关性。
Apr, 2020
为了训练自然对话模型,作者创建了一个新的包含电影聊天信息和相关背景知识的数据集,并使用三种不同的模型对这个数据集进行了基准测试。
Sep, 2018
本文介绍了一种通过模仿社交媒体上的非正式互动改善系统的原始会话能力的方法,并利用 Reddit 上的过滤评论数据作为 seq2seq 生成器的额外上下文,以提高开放域对话系统的能力。
Jun, 2022
这篇论文介绍了一种使用大型语言模型进行对话模拟的方法 —— extsc {Dialogic},它能够自动选择示例并在 GPT-3 的帮助下生成新的对话和注释,快速扩展小型对话数据集,从而实现更高效和省时的数据集创建。同时,该方法可作为一种有效的数据增强方法,具有接近人类流畅性和注释准确性的模拟对话可以代替人工标注的数据进行模型训练。
Oct, 2022
通过离线模仿学习和状态转移信息的利用,结合正则化技巧进行有效地优化,可使模型更好地完成基于对话系统的任务。
May, 2023
本文提出并评估了一种基于多智能体社区的对话框架,在不牺牲任务性能的情况下,通过社区强制规范产生更相关和连贯的对话。
Aug, 2018
本文通过引入强化学习(RL)进行用户交互训练,实现了一个更加人性化的劝说对话系统,并成功在捐赠劝说任务中取得了优于先前最先进的对话模型的表现。
Dec, 2020
本文介绍了一种基于预训练语言模型(GPT-2)的开放域对话模型,通过学习训练样本中上下文和回复之间的隐式模式信息,改进了生成回复的质量。我们提出了改进的预训练模型的定期抽样方法,并设计了一种回复感知机制,使生成的回复更加多样化和接近人类回复。通过在 Persona-Chat 和 DailyDialog 数据集上对所提出的模型(RAD)进行评估,实验结果表明我们的模型在大多数自动和手动评估指标上优于基线模型。
Sep, 2023