采用明确的语境重写方法,基于强化学习的上下文重写网络有助于候选检索,可解释的上下文建模以及在多轮会话中使用单轮框架。
Oct, 2019
该研究提出了一种将人类话语重写作为预处理方法,以帮助多轮对话建模。使用指针网络提出的基于 Transformer 的话语重写架构训练的话语重写器可以轻松地集成到在线聊天机器人中,并在不同领域带来一般性能的提升。
Jun, 2019
本文提出了一种新的方法,通过直接从 transformer 模型的自注意力权重矩阵提取 coreference 和 omission 关系,并相应地编辑原始文本,从而生成完整的话语,从而实现自然语言处理中的不完整话语改写任务。
Feb, 2022
本文研究基于信息检索的跨度多轮对话系统以往语句的上下文建模的问题,提出将以前的话语通过一种深度聚合模型聚合成细粒度的上下文进行表示。实验结果表明,与现有的最先进的方法相比,该模型在三个多回合对话基准测试中表现更优秀。
Jun, 2018
该论文研究了在多轮对话中选择最适当的回应是一个检索型对话系统的关键问题,提出了一种基于受监督对比学习的新方法并应用于回应选取中,利用句子标记交换和句子重排序的技术,经过实验验证,该方法明显优于基线和目前各种方法。
Mar, 2022
本文提出了一种框架,该框架将增强版本的对话上下文纳入学习目标,并利用对比学习作为辅助目标,学习鲁棒的上下文表示,以应对推断期间出现的自然扰动。实验证明,该框架与现有的增强方法相结合,可以显著改善基于 BERT 的排名体系结构,并提供更具鲁棒性的对话表示。此外,我们提出了一种新的数据增强方法 ConMix,该方法通过从批处理中的其他上下文中随机混合 token,为对话添加 token 级扰动,优于以前的数据增强方法。
Apr, 2022
通过多任务信息交互框架,包括上下文选择、编辑矩阵构建和相关性合并,捕捉语义信息的多粒度特点,从而超越同领域现有最先进模型,在两个基准数据集 Restoration-200K 和 CANAND 上表现出色。
Dec, 2023
为了改进聊天机器人中的矛盾检测,本文提出了一种通过重写聊天机器人发言来还原先行词和省略号的方法,并在相应的数据集上建立了模型,实证结果表明该模型能够显著提高矛盾检测性能。
Jul, 2022
本研究旨在解决多轮信息检索对话系统中先前存在的困难与不足,通过提出一种基于卷积神经网络的高效且有效的多轮会话模型,进而研究转移学习以在资源贫少的领域中提高性能,最终将模型应用于阿里巴巴的工业聊天机器人 AliMe Assist 中,取得了显著的性能提升。
以极少资源为基础的生成式对话查询重写,通过使用大量无标签数据进行对比协同训练,克服了噪音和语言风格变化的困扰,展示了在少样本和零样本场景下的优越性和更好的泛化能力。
Mar, 2024