利用自监督来改善有限标注对话状态跟踪
我们将零样本对话状态跟踪转化为少样本对话状态跟踪,通过联合和自我训练方法利用目标域中的无标签数据。该方法通过辅助任务生成槽类型作为主要任务的逆提示,在联合训练期间创建槽值。这两个任务之间的循环一致性使得能够生成和选择未知目标域中的高质量样本,以进行后续的微调。此方法还有助于自动标签创建,从而优化对话状态跟踪模型的训练和微调。我们在零样本场景中的大型语言模型上展示了该方法的有效性,在 MultiWOZ 的所有领域中,平均联合目标准确率提高了 8%。
Oct, 2023
本文提出了一种名为 CSS 的少样本对话状态追踪 (DST) 框架,其将自我训练和自我监督学习方法相结合,并将 DST 任务的未标记数据并入到自我训练迭代中。同时使用对比自我监督方法来学习更好的表示,该方法通过 dropout 操作扩充数据来训练模型。在 MultiWOZ 数据集上的实验结果表明,我们提出的 CSS 在几个少样本场景下具有竞争力的性能。
Oct, 2022
提出了一种新的自学框架,通过伪标签和目的保持扩充来迭代地改进模型,用于少样本生成式对话状态跟踪,增强了 MultiWOZ 2.1 的性能,并提高了无见过值的槽召回率。
Nov, 2022
本文介绍了一个基于 attention mechanism 的迁移学习方法,适用于在训练过程中缺乏丰富人工标注数据的情况下训练 extractive DST 模型,通过两种新颖的输入级 dropout 方法来减轻样本稀疏性的负面影响。我们的实验表明,提出的模型训练策略和架构方法在应对新概念、样本稀疏性等挑战时表现出优越性。
Feb, 2022
本文提出了一种名为 ASSIST 的框架来训练从带噪标签中学习的 DST 模型。ASSIST 使用在小型干净数据集上训练的辅助模型生成每个训练样本的伪标签,然后将生成的伪标签和带噪标签一起用于训练主模型,实验表明,ASSIST 可以将 DST 的联合目标准确度在 MultiWOZ 2.0 和 MultiWOZ 2.4 上分别提高 28.16%和 8.41%,相对于只使用带噪标签。
Feb, 2022
本论文提出了一种基于 encoder-decoder 模型的 Dialogue State Tracking 方法,在利用数据量较小的情况下学习对话状态,结果表明该方法与基于完全监督的基线相当,但成本更低。
Jan, 2021
在半监督学习中,为了减少标记数据的需求,经常使用自我训练来分配伪标签。然而,由于自我训练中可能会出现错误的伪标签,从而导致训练不稳定,因此提出了一种去偏差的自我训练方法,它使用两个参数独立的分类器头来分离伪标签的生成和利用,并通过对抗优化表征来改善伪标签的质量,从而稳定训练并提高性能。
Feb, 2022
本文研究了利用半监督学习方法在构建神经对话系统时可以减少中间标签的数量,发现可以利用未注释数据来显著减少对话状态的转换级别注释,同时在 MultiWOZ 语料库上进行了分析并提出了第一个端到端的对话模型。
Nov, 2019
利用 GPT-4 生成对话数据,通过在 LLaMA 2 上进行两阶段的微调,减少对话收集和注释成本,并表现出比仅使用真实数据训练的基准模型更好的性能,同时适应实际场景中的动态需求。
May, 2024
本文提出了一种新的多任务学习方法,旨在为面向任务的对话系统中的语言理解(LU)和对话状态跟踪(DST)进行学习。多任务训练使得编码用户话语的神经网络层用于 LU 和 DST,通过减少网络参数并提高性能。 本研究提出了 DST 框架,用于考虑有大量或无限可能值的插槽及以往对话中未见过的槽值,并探讨了在 LU 和 DST 输出上使用计划采样来弥合训练和推理之间的差距。
Nov, 2018