行动控制的改写
本文提出一种新颖的任务,通过神经模块来控制句子的语法以及运用多任务训练的目标来提高表示学习,从而实现可控文本生成,并在基线实验的基础上实现性能的提升和捕捉理想特征。
Jun, 2019
提出了一种新型的混合方法,它结合了基于语言学的分裂和删除规则以及神经语言转换模型来进行不同的简化操作,并通过引入新的数据增强方法来提高模型的语言转换能力。通过自动和手动评估,证明该模型在对比现有系统时,产生了更多的语言转换,并且可以控制所应用的每个简化操作的程度。
Oct, 2020
本文提出了一个用于句子重述生成的端到端框架语法引导控制重述生成(SGCP),它利用了源句子中的复杂语法信息以生成符合指定语法结构的新句子,并在多个真实世界的英语语言数据集上进行了自动化和人工评估以证明其有效性。
May, 2020
本研究提出了一种基于 AMR 的修改短语生成模型 (AMRPG),该模型通过对抽象含义表示进行编码,从而在语法控制和短语生成质量方面显着提高了非监督学习方法的性能,并可用于数据增强以改善 NLP 模型的鲁棒性。
Nov, 2022
本文提出了一种基于编码器 - 解码器的模型,名为 Syntactically controlled Paraphrase Generator (SynPG),它可以从未注释的文本集合中学习将一句话的语义和语法分离的能力,从而生成语法各异的释义,而无需使用大量注释的释义对。自动评价和人工评价的实验结果表明,该模型在语法控制方面的表现优于无监督基线,同时生成的释义的质量也具有竞争力。同时,经过充分的训练,该模型的性能与有监督模型相媲美,甚至更好,使其生成的语法受控释义可以用于数据增强,以提高 NLP 模型的健壮性。
Jan, 2021
通过建议句法控制的转述网络,生成对抗样例,数据来自大规模的回译,尝试指定目标句法,通过人工和自动化评估表明此系统可以发现还原目标规范且性能不亚于现有对照组,增强了对语法变化的鲁棒性。
Apr, 2018
该研究提出一种名为 QCPG 的控制质量的引号生成模型,该模型能够直接控制生成的引语的质量维度,并且还提供了一种方法来确定预期能够产生最优引语的质量控制空间中的点。实验表明,该模型能够生成保持原始含义的引语并且比未受控的基线具有更高的多样性。
Mar, 2022
本文提出了利用元学习框架解决弱监督下的释义生成任务,并通过检索式的伪释义扩展获取大量弱标注平行句子,进而选择有价值的样本对预训练语言模型 BART 进行微调,从而生成高质量释义的方法,与目前的无监督学习方法相比具有显著的改进。
Sep, 2021
该研究提出了一种基于改写生成的方法,可以减少创建新对话代理所需要的时间和成本,同时提高其性能,使其能够实际与真实用户进行交互。实验证明该方法提高了意图分类模型的泛化能力,有助于在组织范围内规模化部署这项技术。
Apr, 2022