BriefGPT.xyz
大模型
Ask
alpha
关键词
seq2seq learning
搜索结果 - 4
编码增强的序列到序列预训练模型用于语言理解与生成
本文研究了现有的 seq2seq 预训练模型中存在的问题,提出了一种基于编码器自监督学习的预训练策略 E2S2,并通过在多个自然语言理解和生成任务中的实验证明了其可行性及有效性。
PDF
2 years ago
EMNLP
文本生成中的概念保留评估与改进:抽取、去噪和实施
本文通过实验证明了当前的 seq2seq 模型在重要输入概念的保留方面并不足够好,因而提出了一种简单而有效的方法 —— 使用概念作为词汇约束来保留重要输入概念。该文的方法在自动指标上表现得较好,演示了概念保护的更高覆盖率,并在人工评估中得到
→
PDF
3 years ago
AAAI
使用排列不变训练的事实感知句子拆分与改写
本文提出了 Fact-aware Sentence Encoding 以学习原始句子中的事实,再通过置换不变训练来避免序列生成模型中的序列顺序变化问题。实验结果表明,我们的方法可以大幅提高 seq2seq 模型在 WebSplit-v1.0
→
PDF
4 years ago
抽象摘要生成中注重结构的复制机制
该研究提出了一种结构注入的复制机制,将源依赖关系结构与抽象的句子摘要生成器的复制机制自然地结合起来。实验结果显示将源语句的句法信息纳入系统的有效性,并且我们提出的方法与最先进的方法相比,取得了较好的效果。
PDF
6 years ago
Prev
Next