自训练提高了面向任务的对话系统中 Few-shot 学习的预训练
本文介绍了我们的 Track 2 模型,利用大规模真实世界的 MobileCS 中国 TOD 数据集,使用半监督学习和强化学习构建知识引导的对话模型,实现了任务导向对话系统的高效预测和人机交互。我们的系统在自动评估和人工交互中表现都极佳,尤其是 BLEU (+7.64) 和 Success (+13.6%) 方面比第二名更优秀。
Oct, 2022
本文提出了一种基于 FutureTOD 模型的对话预训练方法,该方法可通过自我训练并利用未来奖励来使模型学习到当下上下文信息和预测未来信息,从而提高对话表示的概括、鲁棒和学习判别性能力,并在不同的下游对话任务中获得了良好的表现。
Jun, 2023
本研究介绍了一种最先进的基于提示的少样本学习器 ——SFLM,该模型使用自训练技术来对语言模型进行微调,仅依赖于少量未标记的领域内数据,并在句子分类和句子对分类基准任务上优于其他最先进的监督和半监督对手。
Oct, 2021
该研究提出了通过 PPTOD 模型和新的对话多任务预训练策略来解决任务导向对话系统中存在的级联生成问题,取得了针对几个基准 TOD 任务的最新成果。
Sep, 2021
本文通过整合多个人机对话数据集,结合用户和系统记号改良预训练模型,提出了对话任务 BERT(TOD-BERT)模型,并通过四个对话应用领域的实验验证,表明 TOD-BERT 在意图识别、对话状态跟踪、对话行为预测、响应选择等方面超过了强对话模型 BERT,并且具有更强的少量数据学习能力。
Apr, 2020
提出了一种新的自学框架,通过伪标签和目的保持扩充来迭代地改进模型,用于少样本生成式对话状态跟踪,增强了 MultiWOZ 2.1 的性能,并提高了无见过值的槽召回率。
Nov, 2022
本文提出了一种利用源语言 ToD 训练数据构建另一种目标语言下的高质量对话代理的方法,从而实现零样本和小样本学习,它通过提高对话数据表示的质量、改进基于实体的机器翻译和自动过滤干扰性翻译来实现这一目标,通过在中英对话数据集 BiToD 上的实验证明了该方法的高效性。
Feb, 2023
本研究基于师生范式构建了一个弱监督数据集,整合粗细分类策略实现用户意图检测,实验表明,基于此方法的模块化对话系统能够以更高的成功率实现任务目标并生成更连贯的响应。
Dec, 2022
本研究提出一种基于自学习的数据到文本生成方法,通过前置学习模型生成的伪标签数据,显式地捕捉数据和文本之间的复杂关系,以及一种称为基于课程设置的自学习 (CBST) 的新方法来缓解伪标签数据的质量问题,在少量标记的数据集下显著优于基于现有技术的元认知预训练和微调方法,本方法成为数据到文本生成领域中的最佳方法。
Jun, 2022