可分解的神经语义相似语句生成
本文提出了一种连续分解的细粒度建模方法,名为 C-DNPG,并在句子编码过程中引入了 GA-Attention 机制,用于提高神经释义生成的效果。该方法在 Quora 问题和 Twitter 链接两个基准测试中都取得了显著的优势和最佳效果,并且在 qualitive 分析中表现良好。
Sep, 2022
本篇论文研究了一种使用深度生成模型(VAE)与序列到序列模型(LSTM)相结合的方法来自动生成给定句子的同义句,相对于现有方法具有更好的性能和简洁的模块化结构。
Sep, 2017
本文提出了一种基于编码器 - 解码器的模型,名为 Syntactically controlled Paraphrase Generator (SynPG),它可以从未注释的文本集合中学习将一句话的语义和语法分离的能力,从而生成语法各异的释义,而无需使用大量注释的释义对。自动评价和人工评价的实验结果表明,该模型在语法控制方面的表现优于无监督基线,同时生成的释义的质量也具有竞争力。同时,经过充分的训练,该模型的性能与有监督模型相媲美,甚至更好,使其生成的语法受控释义可以用于数据增强,以提高 NLP 模型的健壮性。
Jan, 2021
本文提出了一种基于神经机器翻译模型的多样化言语转述生成方法 (D-PAGE),在两个真实基准数据集上进行实验并基于 Jeffrey's Divergence 等评价指标表明 D-PAGE 与基线方法相比至少产生了 10 倍以上的多样化输出。
Aug, 2018
介绍了一种基于语言模式的分层解码自然语言生成模型,与传统的基于 RNN 和 seq2seq 的编码器 - 解码器模型相比,该模型表现更好且模型规模更小。
Aug, 2018
本研究通过使用大型语言模型(LLMs)并应用序列级知识蒸馏方法,开发了三种不同的模型用于释义领域中的改写任务,这些模型具有更快的推理时间,能够生成质量相当的多样化释义,并在人类评估中表现出仅有 4% 的性能下降。
Apr, 2024
本文提出了一种基于 CoRPG(Coherence Relationship guided Paraphrase Generation)的方法,利用图形 GRU 编码一致性关系图并获取每个句子的一致性感知表示,用于重新排列多个(可能修改)输入句子,以生成更具多样性和语义保持的文档改写。
Sep, 2021
本文提出了一种基于编码 - 解码架构的深度生成模型,采用附加的转换器将句子转换为其重述潜在代码并使用 Wassertein GAN 对真实和生成的语义组句样本的分布进行比较,结果表明模型可生成具有可靠性和流畅性的变化丰富的语义重述样本,并取得了最先进的结果。
Sep, 2019