该研究提出了一种基于双层对比学习的通话分离模型,旨在处理多方对话中的基本任务,同时在有监督和无监督学习的设置下,均可取得最先进的性能表现。
Oct, 2022
本文提出了一种基于异构图表示的对话解缠方法,构建了不同的讨论结构特征模型,包括静态发言角色结构和动态背景结构,并采用层级排名损失和易于首先解码算法来实现话语理解和分离。
Jun, 2023
本文提出了一种利用深度协同训练算法,在没有人工标注数据的情况下,训练会话分离模型的方法。该方法由两个神经网络:消息对分类器和会话分类器组成,分别用于检索两条消息之间的本地关系,以及通过捕获上下文感知信息将消息分类到会话中。实验结果表明,本方法在多方响应选择下游任务中具有竞争力。
Sep, 2021
本文提出了一种面向在线对话分离的端到端框架,利用注意力机制和联合学习目标实现对话分离,并在 Ubuntu IRC 数据集上取得了表现最好的结果。
Oct, 2020
本文利用无监督学习的方法,解决了多人对话中的话语分组问题,并通过使用海量数据集进行预训练和微调,实现了无需任何有标注的数据就可以达到 25 的聚类 F1 分数。
Oct, 2021
本文针对多方对话中的混杂对话结构特点,提出使用讲话人属性和参考依赖两方面的结构信息来解决对话概要理解问题,并在 Ubuntu IRC 测试数据集上取得最新的最佳效果。
本文提出基于密度的深度聚类集成方法(DDCE)进行对话意图诱导,相比于 K-means 方法,该方法更加有效,能够处理存在大量异常值的真实场景。在七个数据集上的实验结果表明,相较于其他最先进的基线方法,我们的方法显著优于其他
Jan, 2022
我们提出了一种基于隐藏变量分离的动态因果解缠模型,通过分解对话内容并研究情绪的时间性积累,从而实现更精确的情绪识别。我们在两个常用的对话情绪检测数据集上验证了该模型的优越性。
Sep, 2023
通过对话的对比学习方法,在不成功的对话中发现易于检测的问题,从而提高自动语音识别模型在任务导向对话中的性能。
Jan, 2024
本文提出了一种用于研究电影和电视剧中的对话分离的新数据集,并比较了几种分离模型在数据集上的表现。我们发现,与预期相反,过去 40 年中平均线程长度并没有显著降低,并且由女性扮演的角色相对于其发言时间更容易引发新的对话线程。
May, 2023