神经语法预排序控制释义生成
本文提出了一种基于编码器 - 解码器的模型,名为 Syntactically controlled Paraphrase Generator (SynPG),它可以从未注释的文本集合中学习将一句话的语义和语法分离的能力,从而生成语法各异的释义,而无需使用大量注释的释义对。自动评价和人工评价的实验结果表明,该模型在语法控制方面的表现优于无监督基线,同时生成的释义的质量也具有竞争力。同时,经过充分的训练,该模型的性能与有监督模型相媲美,甚至更好,使其生成的语法受控释义可以用于数据增强,以提高 NLP 模型的健壮性。
Jan, 2021
提出了一种新型的混合方法,它结合了基于语言学的分裂和删除规则以及神经语言转换模型来进行不同的简化操作,并通过引入新的数据增强方法来提高模型的语言转换能力。通过自动和手动评估,证明该模型在对比现有系统时,产生了更多的语言转换,并且可以控制所应用的每个简化操作的程度。
Oct, 2020
本文介绍了一种基于语言约束的相似性搜索方法,用于自动产生大规模对齐语料库,以解决基于神经网络的释义生成面临的数据缺乏问题。该方法在意大利语的情况下进行评估,并使用基于指针的深度神经网络架构实验。
Feb, 2024
本文提出了一种基于递归神经网络的预排序方法,该方法可以从输入中学习特征,能够在不需要手动设计特征的前提下有效提高机器翻译质量。实验证明,该方法达到了与最先进方法相当的翻译质量的提高。
May, 2018
本文提出一种新颖的任务,通过神经模块来控制句子的语法以及运用多任务训练的目标来提高表示学习,从而实现可控文本生成,并在基线实验的基础上实现性能的提升和捕捉理想特征。
Jun, 2019
基于预训练语言模型的词汇简化方法取得了显著进展,通过分析词语在其上下文环境中的替代词生成复杂词的潜在替代词。然而,这些方法需要针对不同语言进行单独的预训练模型,并且忽略了对句子意义的保留。本文提出了一种新颖的多语言词汇简化方法,通过生成释义来提供词语选择的多样性,同时保持句子的意义。我们将释义任务视为支持数百种语言的多语言神经机器翻译中的零 - shot 翻译任务。在释义建模的编码器中输入句子后,我们基于一种集中于复杂词的词汇变体的新颖解码策略生成替代词。实验结果表明,我们的方法在英语、西班牙语和葡萄牙语上明显优于基于 BERT 的方法和零 - shot GPT3 方法。
Jul, 2023
通过引入操作令牌作为用户预期行为的表示,结合文本嵌入进行表示融合,以实现受控改写;实验结果表明,在不给定操作时,我们的方法能够成功实现特定操作受控的改写,并与传统的非受控方法保持相同甚至更好的性能,从而促进了面向用户的可选操作控制概念。
May, 2024
通过建议句法控制的转述网络,生成对抗样例,数据来自大规模的回译,尝试指定目标句法,通过人工和自动化评估表明此系统可以发现还原目标规范且性能不亚于现有对照组,增强了对语法变化的鲁棒性。
Apr, 2018
该研究提出一种名为 QCPG 的控制质量的引号生成模型,该模型能够直接控制生成的引语的质量维度,并且还提供了一种方法来确定预期能够产生最优引语的质量控制空间中的点。实验表明,该模型能够生成保持原始含义的引语并且比未受控的基线具有更高的多样性。
Mar, 2022
本文提出了一个用于句子重述生成的端到端框架语法引导控制重述生成(SGCP),它利用了源句子中的复杂语法信息以生成符合指定语法结构的新句子,并在多个真实世界的英语语言数据集上进行了自动化和人工评估以证明其有效性。
May, 2020