少样本意图的变分自然语言生成
本文提出了一种基于条件变分自编码器 (CVAE) 的 RNN 的跨领域自然语言生成方法,实现了高度多样性的句子生成,并在数据有限的情况下展现了更好的性能。
Dec, 2018
该文提出了少样本自然语言生成(Few-shot natural language generation)任务,设计了基于内容选择和语言建模的模型架构,表现良好。
Apr, 2019
使用多模态编码器指导图像生成的新方法,避免了使用昂贵和经过特殊训练的模型,能够从复杂的语义文本提示中生成高质量的图像,并且能够比 DALL-E [38],GLIDE [33] 和 Open-Edit [24] 等先前的不灵活方法产生更高的视觉质量。
Apr, 2022
本文提出了一种基于变分神经网络的自然语言生成模型,用于解决受限标记数据集的自然语言生成问题,并通过引入变分推理和辅助自编码器与有效的训练程序来提高模型性能。实验表明,该模型不仅在有足够训练数据时优于以前的模型,而且在数据稀缺情况下也表现出良好的能力。
Nov, 2018
本文提出了一种基于 Pseudo Siamese Network 的少样本意图检测方法,实现了在较少标注数据的情况下生成有效的标签,将句子的动作和对象分开,使用 transformer-based variational autoencoder 来实现解码。在两个真实数据集上的实验证明,该方法在少样本意图检测任务中达到了最先进水平。
May, 2021
本文提出了一种对于细粒度、语义相似的意图进行 Few-shot 检测的方案,使用了对比自监督预训练和有监督对比学习的组合方式,在三种不同的具有挑战性的 Few-shot 意图检测数据集上实验,获得了最先进的表现。
Sep, 2021
该论文提出 FewShotWoz 模型作为 Natural Language Generation 模块,使用 SC-GPT 模型进行预训练来实现带有有限数量 labeled data 的多领域适配,通过实验证明其效果显著优于已有方法。
Feb, 2020
本篇论文提出了一种名为 AUGNLG 的新型数据增强方法,将自我训练的神经内存模型与少量训练的神经语言理解模型结合起来,自动从开放领域的文本中创建 MR-to-Text 数据,以提高自然语言生成的效率并在 FewShotWOZ 数据上表现优异。
Jun, 2021
本文提出了一种新型模型 CG-BERT 来处理自然语言理解中的一种更现实和困难的问题 —— 广义少样本意图检测,该模型有效利用了大规模预训练语言模型,通过建模话语分布使用变分推理来生成新意图的多样化话语。实验结果表明,该模型在两个真实数据集上取得了 1-shot 和 5-shot 设置的最优性能。
Apr, 2020
对话系统需要产生高语义可信度的能实现多种类型对话行为的回应。本文提出了一种新颖的少样本过度生成与排序方法来实现对话行为的可控生成,并将其与八种少样本提示方式进行了比较,其中包括使用文本风格转移方法从文本伪参考中生成。在生成过程中,我们开发了六个自动排序函数,可以识别具有正确对话行为和高语义准确性的输出。我们在三个领域和四个预训练语言模型上进行了测试,结果显示,几种提示设置实现了完美的对话行为准确性,并且语义准确率接近完美(99.81%),表现优于少样本微调模型。
Jul, 2023