本文提出了一种利用深度协同训练算法,在没有人工标注数据的情况下,训练会话分离模型的方法。该方法由两个神经网络:消息对分类器和会话分类器组成,分别用于检索两条消息之间的本地关系,以及通过捕获上下文感知信息将消息分类到会话中。实验结果表明,本方法在多方响应选择下游任务中具有竞争力。
Sep, 2021
本文提出了一种基于异构图表示的对话解缠方法,构建了不同的讨论结构特征模型,包括静态发言角色结构和动态背景结构,并采用层级排名损失和易于首先解码算法来实现话语理解和分离。
Jun, 2023
提出了一种名为 CluCDD 的模型,该模型通过对话分离技术和对比学习聚合话语,以生成预测聚类标签并取得最新的最优结果。
Feb, 2023
本文提出了一种面向在线对话分离的端到端框架,利用注意力机制和联合学习目标实现对话分离,并在 Ubuntu IRC 数据集上取得了表现最好的结果。
Oct, 2020
提出了一种整合局部和全局语义的新模型 Dialogue BERT (DialBERT) 来解决在同一通道中同时发生多个对话的混淆问题,其中使用 BERT 在 utterance 级别捕捉每个 utterance 对信息的匹配信息,并使用 BiLSTM 聚合和合并 context 级别信息,与 BERT 相比,只增加了 3% 的参数,并取得了 12% 的 F1-Score 提升,该模型在 IBM 提出的新数据集上达到了最先进的结果,并大幅超越了先前的工作。
Apr, 2020
本文利用无监督学习的方法,解决了多人对话中的话语分组问题,并通过使用海量数据集进行预训练和微调,实现了无需任何有标注的数据就可以达到 25 的聚类 F1 分数。
Oct, 2021
本文从对比学习的角度提出了一种新的对抗生成网络(CD-GAN)来解决因潜变量的后验推断和缺乏样本似然性而难以实现的生成模型因果解释的问题,它通过对比图像特征来实现对数据中不同类之间可辨别属性的提取,并通过仅有的有限监督来提高模型的性能。实验结果表明了该模型在多个数据集上对数据进行高效的可解释性特征提取。
Mar, 2021
本文针对多方对话中的混杂对话结构特点,提出使用讲话人属性和参考依赖两方面的结构信息来解决对话概要理解问题,并在 Ubuntu IRC 测试数据集上取得最新的最佳效果。
我们提出了一种名为 Learn2Diss 的自我监督学习语音表示的框架,它包括帧级和话语级编码器模块,通过解开两个编码器并使用基于互信息的标准来进行联合学习,从而在多种任务上实现了最先进的结果,帧级编码器的表示改进了语义任务,而话语级表示改进了非语义任务。
Jul, 2024
基于对比学习方法的成功,该文提出一种用于图上对比解缩的框架,采用了解缩编码器和两个经过精心设计的自监管信号,并使用该框架在 3 个引文网络上进行节点分类任务,实验结果验证了该框架的有效性。