该研究提出了一种基于双层对比学习的通话分离模型,旨在处理多方对话中的基本任务,同时在有监督和无监督学习的设置下,均可取得最先进的性能表现。
Oct, 2022
本文针对多方对话中的混杂对话结构特点,提出使用讲话人属性和参考依赖两方面的结构信息来解决对话概要理解问题,并在 Ubuntu IRC 测试数据集上取得最新的最佳效果。
Oct, 2021
本文提出了一种面向在线对话分离的端到端框架,利用注意力机制和联合学习目标实现对话分离,并在 Ubuntu IRC 数据集上取得了表现最好的结果。
Oct, 2020
提出了一种名为 CluCDD 的模型,该模型通过对话分离技术和对比学习聚合话语,以生成预测聚类标签并取得最新的最优结果。
Feb, 2023
本文提出了一种利用深度协同训练算法,在没有人工标注数据的情况下,训练会话分离模型的方法。该方法由两个神经网络:消息对分类器和会话分类器组成,分别用于检索两条消息之间的本地关系,以及通过捕获上下文感知信息将消息分类到会话中。实验结果表明,本方法在多方响应选择下游任务中具有竞争力。
Sep, 2021
提出了一种整合局部和全局语义的新模型 Dialogue BERT (DialBERT) 来解决在同一通道中同时发生多个对话的混淆问题,其中使用 BERT 在 utterance 级别捕捉每个 utterance 对信息的匹配信息,并使用 BiLSTM 聚合和合并 context 级别信息,与 BERT 相比,只增加了 3% 的参数,并取得了 12% 的 F1-Score 提升,该模型在 IBM 提出的新数据集上达到了最先进的结果,并大幅超越了先前的工作。
Apr, 2020
本文利用无监督学习的方法,解决了多人对话中的话语分组问题,并通过使用海量数据集进行预训练和微调,实现了无需任何有标注的数据就可以达到 25 的聚类 F1 分数。
我们提出了一种名为 Learn2Diss 的自我监督学习语音表示的框架,它包括帧级和话语级编码器模块,通过解开两个编码器并使用基于互信息的标准来进行联合学习,从而在多种任务上实现了最先进的结果,帧级编码器的表示改进了语义任务,而话语级表示改进了非语义任务。
Jul, 2024
这项工作引入了一种无监督的学习层次对话结构的方法,包括对话行为和子任务。结构显示对于三个会话级理解任务,包括对话模型的优化是有用的。此外,通过自动摘要,学习的有限状态子对话网络是可解释的。
May, 2022
通过主题分割和话语解析,我们提出了一种无监督的两种结构的互学习框架,以实现对话系统的全局目标和话语策略的一致性。实验结果表明,我们的方法在两个对话话语数据集(STAC 和 Molweni)以及对话主题数据集(Doc2Dial 和 TIAGE)上优于所有强基准模型。
May, 2024