本研究探讨了数据人工制品对机器学习模型泛化能力所产生的影响,提出一种基于对比学习的框架,试图鼓励深度学习模型学习普适规律并忽略数据人工制品。研究表明该方法具有很好的实验效果。
May, 2022
本文介绍了三种增强现有编码器 - 解码器模型的方法,以有效地模拟连贯性并促进输出多样性,它们在 OpenSubtitles 语料库上的实验表明,与竞争神经模型相比,在 BLEU 分数以及连贯性和多样性度量方面均有极大改善。
Sep, 2018
本文提出了一种新的方法,通过利用非对话文本来丰富对话生成,我们通过迭代反向翻译等技术有效地将非对话文本集成进模型中,在不降低与上下文相关性的情况下,生成的回复显著更具多样性。
May, 2020
我们介绍了一种自然语言推理方法,用于事后将训练好的角色提取模型适应于新的场景,与现有的角色提取模型相比,我们的方法可以提供更高质量的角色提取结果,并需要较少的人工标注。
Jan, 2024
通过建立 Generator-Critic 架构,使用 LLM 生成会话,借助 Synthetic-Persona-Chat 评估了高质量对话数据集对 NLP 模型的影响。
Dec, 2023
本文提出了一种基于预训练的个性化对话模型,利用个人属性嵌入来丰富对话语境,结合注意力路由结构进行解码,从而生成更为连贯且人物一致的回答。
Nov, 2019
为了训练自然对话模型,作者创建了一个新的包含电影聊天信息和相关背景知识的数据集,并使用三种不同的模型对这个数据集进行了基准测试。
本文提出了一个新的共情对话生成指标和一个基于具有情感情境的 25k 个会话的新数据集 EmpatheticDialogues,实验表明使用我们的数据集的对话模型被人类评估员认为比仅在大规模互联网对话数据上训练的模型更具有移情能力,同时还通过实验比较了对情感回应进行的对话模型调整,利用现有模型或数据集而无需重新训练完整模型
Nov, 2018
本文介绍了一种通过模仿社交媒体上的非正式互动改善系统的原始会话能力的方法,并利用 Reddit 上的过滤评论数据作为 seq2seq 生成器的额外上下文,以提高开放域对话系统的能力。
Jun, 2022
本研究分析了神经网络开放领域对话系统所学习的内部表示,并评估了这些表示的质量以学习基本的交谈技巧。结果表明,标准的开放领域对话系统难以回答问题、推断矛盾并确定对话话题等任务,需要更多的研究来探讨建筑和训练方法,从而更好地捕捉有关对话的高级信息。
Jun, 2020