该研究提出了一种从主题感知的角度对多轮对话进行建模,使用对话切分算法将对话段落无监督地拆分为主题集中的片段,并将这些片段作为主题感知的语言处理单元用于进一步的对话理解。通过在聚类系统中设计自训练自编码器,并构建两个构造的数据集进行评估,我们展示了拆分段落在域内主题检测和定位方面的便利性。同时,拆分段落也是多轮对话响应选择的适当元素,为此,我们提出了 Topic-Aware Dual-Attention Matching (TADAM) 网络模型,它以主题片段作为处理元素,并使用双交叉注意力匹配响应候选项。通过对三个公共基准测试的实证研究,我们发现相对于基准,该模型取得了显著的改进。该研究延续了先前的文档主题研究,并通过详尽的实验和分析将对话建模引入了新的主题感知视角。
Sep, 2023
本文研究基于信息检索的跨度多轮对话系统以往语句的上下文建模的问题,提出将以前的话语通过一种深度聚合模型聚合成细粒度的上下文进行表示。实验结果表明,与现有的最先进的方法相比,该模型在三个多回合对话基准测试中表现更优秀。
Jun, 2018
本文提出了一种基于 Biterm Topic Model(BTM)的对话生成模型 STAR-BTM 来解决多轮对话中话题漂移的问题,并在中文客服数据和英文 Ubuntu 对话数据上进行了实验,结果表明 STAR-BTM 在度量和人工评估方面明显优于现有模型。
Sep, 2020
本文提出一种名为 TARG 的基于主题的响应生成模型,改进了基于词或句子相似度来检测相关知识背景的方法,用主题信息来提高对话历史的理解,取得了知识选择和响应生成上的最新成果。
Dec, 2022
本文提出了一种新型方法,旨在通过建模对话历史中蕴含的有效话语意识和发言人意识表示,从而解决现有基于检索的多轮对话建模中针对言语和说话人角色的细粒度表示不足的问题,并在四个公共基准数据集上显著提高了 ELECTRA 基线的性能,达到了多种新的最新性能。
通过提示式方法从对话中多层次提取主题信息,可以有效地识别对话主题的变化与多样性,且实验结果显示该方法优于现有方法。
May, 2023
本文提出了一种上下文感知的谈话主题分类方法,通过引入对话上下文和对话行为特征,扩展了神经主题分类和无监督主题关键词检测的先前研究,以提高谈话中的主题识别准确性和预测用户评价指标。
Oct, 2018
本文提出了基于掩码注意力和异构图网络的增强型说话人感知模型,以全面捕捉对话线索,实验结果展示了我们说话人感知模型在基准数据集 Molweni 上取得了最先进的表现,案例分析表明我们的模型增强了话语与说话人之间的联系,并捕捉到了说话人感知的对话关系,对话建模至关重要。
Sep, 2021
本文研究了基于 BERT 的联合模型,利用知识关注机制和筛选相关知识三元组的门控机制相互利用两个 SLU 任务的对话上下文和动态信息进行建模,实验结果表明相对于其他竞争基线,该方法在两个复杂的多轮对话数据集上取得了相当大的改进。
Feb, 2022
这项研究通过动态主题跟踪任务将回复选择作为一种新的表述方法,并提出了一种支持高效编码的新型多任务学习框架,并且通过预训练模型,仅使用两次讲话来进行动态主题分离和回复选择。同时,还提出了 Topic-BERT 的关键预训练步骤来嵌入主题信息,并在 DSTC-8 Ubuntu IRC 数据集上获得了表现出色的结果。
Oct, 2020