无监督自编码选择纠缠响应实现零样本对话分离
本文提出了一种利用深度协同训练算法,在没有人工标注数据的情况下,训练会话分离模型的方法。该方法由两个神经网络:消息对分类器和会话分类器组成,分别用于检索两条消息之间的本地关系,以及通过捕获上下文感知信息将消息分类到会话中。实验结果表明,本方法在多方响应选择下游任务中具有竞争力。
Sep, 2021
本文提出了一种基于异构图表示的对话解缠方法,构建了不同的讨论结构特征模型,包括静态发言角色结构和动态背景结构,并采用层级排名损失和易于首先解码算法来实现话语理解和分离。
Jun, 2023
本文提出了一种利用源语言 ToD 训练数据构建另一种目标语言下的高质量对话代理的方法,从而实现零样本和小样本学习,它通过提高对话数据表示的质量、改进基于实体的机器翻译和自动过滤干扰性翻译来实现这一目标,通过在中英对话数据集 BiToD 上的实验证明了该方法的高效性。
Feb, 2023
提出了一种整合局部和全局语义的新模型 Dialogue BERT (DialBERT) 来解决在同一通道中同时发生多个对话的混淆问题,其中使用 BERT 在 utterance 级别捕捉每个 utterance 对信息的匹配信息,并使用 BiLSTM 聚合和合并 context 级别信息,与 BERT 相比,只增加了 3% 的参数,并取得了 12% 的 F1-Score 提升,该模型在 IBM 提出的新数据集上达到了最先进的结果,并大幅超越了先前的工作。
Apr, 2020
本研究提出利用自监督分离式语音表示学习的新视角进行零样本语音转换,通过在序列变分自编码器中平衡全局说话人表示和时变内容表示之间的信息流实现分离,并应用实时数据增强培训策略以使所学表示不受噪声干扰。在 TIMIT 和 VCTK 数据集上表现出了优越性能,不仅在客观评估上表现良好,而且在主观评估方面具有鲁棒性,即使在源 / 目标语音帧存在噪声的情况下仍能保持不错的性能。
Mar, 2022
本文提出了一种利用触发器捕获能力实现零样本对话关系提取的模型,该模型在使用 DialogRE 数据集进行的实验中取得了显著的改进,为对话关系提取系统的可扩展性和实用性提供了新的方法。
Jun, 2023
本文介绍了一种基于 MetaLWOz 数据集的知识迁移技术,实现在少量样本下训练对话系统的方法,并在多个领域的人机对话中达到了最先进的结果,同时也不需要任何标注数据。
Aug, 2019