本文提出了基于对抗学习的、旨在降低对话系统中性别歧视的新框架 Debiased-Chat,并在两个真实的对话数据集上进行了广泛的实验,结果表明该框架明显降低了对话模型的性别偏见,同时保持了响应质量。
Sep, 2020
本研究提出一种解决任务型对话系统中曝光偏差问题的方法,通过采用会话级别的采样和基于 dropout 的一致性正则化来提高模型的鲁棒性和性能, 并在 MultiWOZ 基准测试上取得了最先进的性能。
Sep, 2022
本研究利用对比学习方法,在已有预训练模型为基础上,训练对话生成模型,提高其多样性和能力以应对开放领域会话问题,并提出一种适用于广泛对话生成模型的群内对比学习框架,实验结果表明该方法在性能上表现优异。
通过使用外部知识补充上下文,知识感知对话生成旨在减轻文本退化问题,然而,模型经常无法以人类方式将这些信息内化为响应,而仅简单地将所提供的知识片段插入到通用响应中,导致生成的响应往往乏味、不连贯且缺乏互动性,这意味着退化问题仍未解决。在这项工作中,我们首先发现,这种复制式退化主要是由于弱似然目标,这使得模型可以通过仅基于重叠的表面模式匹配来 “欺骗” 这个目标而复制知识片段。为了克服这一挑战,我们提出一种多级自适应对比学习(MACL)框架,该框架动态采样负例,并随后在令牌级别和序列级别上惩罚退化行为。广泛的实验验证了我们的方法在 WoW 数据集上的有效性以及在各种预训练模型上的适用性。
Oct, 2023
本研究提出一个评估聊天机器人响应的系统,利用明确的反馈机制改进神经响应图生成模型,从而获得更具连续性和参与度的响应。
Apr, 2019
本研究探讨了数据人工制品对机器学习模型泛化能力所产生的影响,提出一种基于对比学习的框架,试图鼓励深度学习模型学习普适规律并忽略数据人工制品。研究表明该方法具有很好的实验效果。
May, 2022
本文提出采用强化学习等两种方法来自动触发对话模型产生问题响应,以揭示现有最先进的对话模型存在的安全和矛盾问题。
Sep, 2021
本论文从三个数据集中的多个测试域的实验中,展示了暴露偏差对于幻觉的部分责任,并且证明了避免暴露偏差的 Minimum Risk Training 可以缓解幻觉问题,并说明了暴露偏差在领域转移下更加问题,并且将其与 Beam Search 问题联系起来。因此,即使暴露偏差算法不会增加在领域测试集上的性能,但它们可以提高模型对领域移位的鲁棒性。
May, 2020
发展神经对话模型需要超越 “内容相似性”,本文提出用对抗性负面样本提高模型的实用性。实验表明,我们的方法在多个数据集上均表现优异。
Jun, 2021
本文探索了多种方法使自然语言推理模型具有鲁棒性,包括模型去偏,数据增强等,并提供了性能较好的模型集成方法。
Oct, 2020