本文介绍了一种基于完全端到端的方式将开放检索对话式机器阅读(OR-CMR)建模为一个统一的文本到文本任务,并在 OR-ShARC 数据集上展示了其在两个子任务上的显著有效性和创新的最先进结果。
Oct, 2022
本研究通过利用注意力机制为基础的神经网络,将对话状态跟踪任务转化为阅读理解问答,利用上下文意义理解对话中不同语境中槽位词语的指代,通过利用上下文单词嵌入的最新进展,并将方法与传统的联合状态跟踪方法相结合,得到了比当前最新技术提高 11.75% 的检测精度。
Aug, 2019
利用机器阅读理解(RC)方法在对话状态跟踪中,针对模型架构和数据集两个方面进行改进并应用到多种领域,实现了很好的跨领域通用性,并在少数据情形下(few-shot scenarios)表现出了更好的性能,即便在零状态跟踪数据下(zero-shot scenarios),也在 MultiWOZ 2.1 数据集中表现出很高的性能。
Apr, 2020
通过提出一种管道框架,将对话式机器阅读(CMR)中的文档与用户提供的信息进行明确对齐,使用轻量级多对多蕴含推理模块做出决策,并直接基于文档和之前的问题生成后续问题。我们的方法在微准确性上达到了最新水平,并在 CMR 基准数据集 ShARC 的公共排行榜上排名第一。
Oct, 2023
本文提出了一种对话图建模框架,通过 Discourse Graph、Decoupling Graph 和 Global Graph 三种图来提高机器对复杂问题的理解和推理能力,实现基于给定的规则文档、用户场景和对话历史的交互问答。
Dec, 2020
提出了一种基于共享参数机制的端到端框架,称为 ET5,用于会话式机器阅读理解,可以在完整利用涉入推理信息的情况下实现跨步问答,并在 ShARC 数据集上达到了新的最优结果。
Sep, 2022
本文提出一种联合框架,用于改善多轮对话中回复生成的表现。这种框架结合了阅读理解任务和回复生成任务,共享相同的编码器来提取共同且与任务无关的特征和不同的解码器来学习任务特定的特征。用记忆更新器增强 Transformer 体系结构以更好地将问题和对话历史的信息融合在编码部分,并在大规模对话阅读理解数据集上进行了实验,结果显示该模型对于两个任务都带来了显著的改进。
本文提出了一种组合学习方法,进一步超越了预先训练的语言模型,以捕捉涉及对话历史的话语感知和说话人感知等表示。通过使用 Transformer-based PrLM 的 masking 机制,将每个单词分别聚焦在当前话语,其他话语和两种说话人角色(即发送者话语和接收者话语)上,有效区分上下文信息。此外,该方法在对话领域适应性训练策略上借鉴了域自适应训练策略,成功地在四个公共基准数据集上取得了新的最先进性能。
Jan, 2023
本研究提出一个评估聊天机器人响应的系统,利用明确的反馈机制改进神经响应图生成模型,从而获得更具连续性和参与度的响应。
Apr, 2019
本文提出一种双向推理的生成模型,通过向基础的编码解码模型添加后向推理步骤,推动模型产生更多信息丰富、连贯的回复,实现了双向优化,最终提升了响应质量,成为当前响应质量最好的方法之一。
Apr, 2021