社交对话的神经响应排名:一种数据高效的方法
通过社交媒体反馈数据构建训练集,在 133M 个人类反馈数据上训练了基于 GPT-2 的 DialogRPT 模型,结合评分模型排名机器生成的对话回复,并通过人类评估证明其效果优于基线模型。
Sep, 2020
本研究对开源聊天机器人的多种回复生成方法进行了系统评估,提出了利用手动注释筛选出的多个正向回复和负向回复,从而提高模型效果的新训练数据,并实验证明性能较之采用对抗训练数据有更显著提升。
Aug, 2022
该研究提出了一种在深度神经匹配网络上利用外部知识进行响应排序的学习框架,实验证明,该方法在包括商业数据在内的三个信息寻求对话数据集上优于各种基线模型,包括多个深度文本匹配模型和多轮对话响应选择的最新方法。
May, 2018
本文介绍了一种利用卷积深度结构语义神经网络特征进行信息检索的模型,以实现在与用户进行对话时产生人类般的对话互动,该模型采用上下文敏感的方法,具有显著优于传统基线模型的检索响应相关性。
Jun, 2016
提出了一种上下文感知的对话响应重新排序系统,使用神经词嵌入模型和手工或逻辑回归模型,将响应在与当前对话上下文的匹配分数和候选人的概率分布的基础上重新排名,提高了最近提出的端到端任务导向对话系统在具有语音识别错误的实际对话中的性能。
Nov, 2018
提出两个神经网络模型,评估一系列对话特征,以无先验知识地对话成功率进行评分并得出能与基于先验知识的系统相媲美的结果,该方法也可用于评估 SDS 并监测基于规则的 SDS 的对话。
Aug, 2015
该研究提出了一种利用密集检索模型从包含数百万个响应的大型语料库或甚至仅由未配对句子组成的非平行语料库中直接选择适当响应的解决方案,并通过一系列专门设计的学习策略实现其在全范围评估设置下的优越性。
Oct, 2021
该研究对基于多个响应生成器的开放域对话系统进行了实验,使用了多种响应排序方法比较 Athena-Heuristic 和 Athena-RR,结果显示 Athena-RR 表现最好,能够在对话中更准确地选择最佳响应。
Feb, 2023