本文研究基于 Pre-trained Language Models (PLMs) 的注意力矩阵构建对话结构的方法,提出了一种无监督和半监督的方法来定位和利用 PLMs 中的语篇信息,并在 STAC 语料库上获得了令人鼓舞的结果。
Feb, 2023
本文提出了一种组合学习方法,进一步超越了预先训练的语言模型,以捕捉涉及对话历史的话语感知和说话人感知等表示。通过使用 Transformer-based PrLM 的 masking 机制,将每个单词分别聚焦在当前话语,其他话语和两种说话人角色(即发送者话语和接收者话语)上,有效区分上下文信息。此外,该方法在对话领域适应性训练策略上借鉴了域自适应训练策略,成功地在四个公共基准数据集上取得了新的最先进性能。
Jan, 2023
本篇论文探讨了临床对话任务中自动化提取相关信息的挑战,提出了使用领域特定的语言预训练方法以提高对话理解的性能,结合具体的人类对话交互方式设计样本生成策略,实验结果表明该方法在低资源训练情况下取得良好表现。
Jun, 2022
介绍了一种提高语言模型结构理解能力的方法,它通过预训练语言模型生成的结构来替代以往的基于任务数据的微调方式,并且在包含 28 个数据集的 10 个预测任务上实现了零样本迁移和超越了 21 个数据集的最新成果。
May, 2022
在本文中,我们提出了一种用于长对话摘要的说话者增强的预训练方法,该方法利用了多轮对话的内在结构。我们通过收集多样化的数据集,并进行预训练,实验证明我们的模型在具有长上下文的基准测试中取得了最先进的性能,超过了基准模型,并突出了我们方法的有效性。我们的研究结果强调了构建多样化的预训练数据集以确保与下游数据集的有效对应的重要性。
Jan, 2024
该论文提出了一种基于预训练语言模型转换对话到叙述语言的技术,利用此技术可以显著提高对话摘要的性能,而且具有低的实施成本。
Apr, 2022
本研究旨在探索使用预训练策略增强口语理解任务性能,通过自监督的语音和语言模型在 SLU 测评基准上进行实验,发现预训练模型可于低资源环境中提升结果,其中以预训练的语言和语音模型分别在情感分析和命名实体识别任务上效果最突出。
Nov, 2022
该研究基于各类无监督预训练任务探究对话上下文表示的学习,并通过精细调整的预训练机制,有效整合了外部知识,能够大幅提高对话提取 / 摘要等下游任务的效果。
Feb, 2020
本文提出了一种用于长对话理解和摘要的预训练框架,其中包括以窗口为基础的去噪方法和稀疏注意力机制,并通过实验表明 DialogLM 预训练模型显著优于现有的模型。
Sep, 2021
本文提出一种专门为特定任务对话系统设计的预训练模型 PRAL,并设计采用多种技术来提高模型性能及引入了对话预训练数据集,实验结果表明 PRAL 在三种不同任务中表现优异,超越或与最先进的方法持平。
Apr, 2020