本研究提出了一种构建响应选择测试集以进行系统评估的方法,通过过滤不相关的和可接受的候选者,实验表明此方法比 BLEU 等自动评估指标更能与人类评估相关联。
Apr, 2020
发展神经对话模型需要超越 “内容相似性”,本文提出用对抗性负面样本提高模型的实用性。实验表明,我们的方法在多个数据集上均表现优异。
Jun, 2021
本研究提出了一种使用大规模语言模型生成对抗性负面响应的简单而高效的方法,用于提高在检索式对话系统中响应选择模型的识别能力,并证明其在对话选择任务中优于其他对抗性负面响应合成方法。
Oct, 2022
通过在大型通用领域对话语料库上预训练反应选择模型,然后利用小型特定领域数据微调预先训练的模型,本论文提出了一种有效的方法来部署任务导向对话中的响应选择,取得了很好的效果。在六个不同的应用领域,从电子商务到银行业,本方法都表现出了良好的效果。
Jun, 2019
本文提出了使用神经排序器从未标记的数据中有效地训练社交对话系统的方法,并展示了使用该方法通过优化长度作为目标的排序器在性能上优于优化用户评级的排序器,从而可简化未来社交对话代理的数据收集。
Nov, 2018
本研究提出一个评估聊天机器人响应的系统,利用明确的反馈机制改进神经响应图生成模型,从而获得更具连续性和参与度的响应。
Apr, 2019
本研究分析了开放域韩语多次对话响应选择模型的弱点,并发布了对抗性数据集以评估这些弱点。我们还提出了在这种对抗环境中构建强大模型的策略。
Sep, 2021
提出了一种上下文感知的对话响应重新排序系统,使用神经词嵌入模型和手工或逻辑回归模型,将响应在与当前对话上下文的匹配分数和候选人的概率分布的基础上重新排名,提高了最近提出的端到端任务导向对话系统在具有语音识别错误的实际对话中的性能。
该研究对基于多个响应生成器的开放域对话系统进行了实验,使用了多种响应排序方法比较 Athena-Heuristic 和 Athena-RR,结果显示 Athena-RR 表现最好,能够在对话中更准确地选择最佳响应。
Feb, 2023
该论文提出了一种采用先验和后验知识分布来实现知识选择的端到端神经模型,以更好地将适当的知识整合到响应生成中。
Feb, 2019