该论文介绍了如何使用对比学习和多任务学习相结合的方法来提高上下文建模中的缺失语句重写系统的目的。实验表明,该方法在几个公共数据集上均达到了最先进的性能。
Mar, 2022
通过探索一种新的矛盾对话处理任务,该研究试图检测和修改会话中的矛盾陈述,以减轻当前语言模型在对话中自相矛盾的问题,并通过开发一个数据集和一个 Red Teaming 框架展示了该任务的有效性,强调了在对话式人工智能中逻辑不一致问题的重要性。
May, 2024
本篇论文研究了自然语言理解模型在抓住普遍会话中的一致性方面的应用。为此,作者提出了 DialoguE COntradiction DEtection 任务并创建了一个包含人类与机器人相互矛盾的对话的新型会话数据集。作者进一步比较了基于预训练 Transformer 模型进行矛盾检测的结构化语言表述方法与典型的非结构化方法,并发现结构化语言表述方法在分析与分布式会话中的表现更为健壮且更具可转移性。作者提供了证据表明,他们的最佳矛盾检测模型与人类判断相一致,并可自动评估与提高最先进的生成式聊天机器人的一致性。
Dec, 2020
本文通过对 n-best 列表的一致性进行定量分析,探究了最新的神经响应生成模型和方法的矛盾意识,讨论了它们的特性和局限性。
Aug, 2022
研究论文强调了聊天系统的一致性问题,介绍了一个用于研究对话一致性的数据集和一系列任务,实验证明该数据集对于检测和解决会话中的不一致性有显著帮助,同时发现当前流行的大型语言模型如 ChatGPT 在解决不一致性方面表现良好但在检测方面仍存在困难。
Jan, 2024
该研究提出了一种将人类话语重写作为预处理方法,以帮助多轮对话建模。使用指针网络提出的基于 Transformer 的话语重写架构训练的话语重写器可以轻松地集成到在线聊天机器人中,并在不同领域带来一般性能的提升。
Jun, 2019
通过对模型生成的矛盾回应进行广泛分析,我们构建了一个大型数据集,并获取了这些模型生成的矛盾的特征,最后展示了该数据集如何大幅提升数据驱动的矛盾抑制方法的性能。
Mar, 2024
采用明确的语境重写方法,基于强化学习的上下文重写网络有助于候选检索,可解释的上下文建模以及在多轮会话中使用单轮框架。
Oct, 2019
分析了两个自然语言推理数据集的语言特征,发现机器学习模型难以理解介词和动词语义重要性,不能理解反义词和同音词,不能理解不完整的句子和罕见单词短语,因此需要在训练过程中尽可能利用更多外部知识。
Oct, 2022
通过采用分层抽样的方法,引入了强化学习和重新排序机制,以提高聊天机器人在实际应用场景中的鲁棒性,并缓解聊天机器人在多轮对话中生成不一致响应的问题。