- 非参数记忆引导的多文档摘要
我们提出了一种用于摘要生成的检索引导模型,结合了非参数记忆。该模型使用近似最近邻搜索从数据库中检索相关的候选文本,然后利用复制机制和源文档生成摘要。我们在包括科学文章的 MultiXScience 数据集上评估了我们的方法,并讨论了我们的结 - ACL通过语义适当应用词汇限制实现准确翻译
本文研究了将用户提供的术语融入翻译中的词汇约束机器翻译(LNMT)模型,并提出了具有挑战性的评估方法和 PLUMCOT 方法来解决模型中挑战性的词汇约束问题,并提出了一个评估基准,结果表明 PLUMCOT 在处理 “看不见” 的约束条件方面 - 自然语言到 SPARQL 查询生成的抄袭机制的全面评估
本文介绍了关于 NMT 的 SPARQL 查询语句生成的最新研究,并比较了预训练和非预训练模型、问题注释格式以及无需预训练和预训练模型的复制机制的使用。实验结果表明,无论是添加复制机制还是使用问题注释都可以提高非预训练模型和预训练模型的性能 - 处理 SPARQL 神经网络机器翻译中知识库元素的复制机制
本研究提出了在神经 SPARQL 查询生成中整合一个复制机制,以解决目前方案无法处理模型未见过的知识资源、类和属性的问题,并使用两种 Seq2Seq 体系结构(CNN 和 Transformers)进行说明。该层使模型直接从问题中复制 KB - EMNLPBioCopy:Seq2Seq 模型中即插即用的跨度复制机制
本文介绍了一种名为 BioCopy 的插件式机制,通过在训练和推理阶段引入 BIO 标记和各种掩码策略提升了神经 seq2seq 框架下的输出准确性和生成任务的效果。
- EMNLP异构图神经网络用于关键词生成
提出一种新的基于图的关键词生成方法,结合层次化注意力和拷贝机制,借鉴相关文献的显式知识,取得显著的成果。
- 跨文件关注的关键短语生成
CDKGen 是一种基于 Transformer 的关键短语生成器,通过交叉文档注意力网络将可用文档作为参考,利用主题信息来生成更好的关键短语,通过选择适当的单词来处理关键短语中的非词汇词,实现了最先进的性能。
- AAAICopyMTL: 多任务学习下实体和关系的联合抽取的复制机制
提出了一种新的多任务学习框架 CopyMTL,采用复制机制来处理多标记实体,并通过改进结构解决了实体提取问题,这使得模型在实体和关系提取方面有了更显著的性能。
- EMNLP生成高度相关的问题
通过部分复制和 QA-based reranker,我们提出了两种方法来提高神经序列到序列的问题生成模型的生成问题与给定段落和答案相关性的准确性。
- 使用神经合成数据的混合语言模型来处理句子间的平行语言切换
为了解决训练混合语言模型的困难,本研究提出了一种基于序列 - 序列模型及 copy 机制的新型训练方法,通过有限的混合语言数据和单语数据的并行翻译生成需要的混合语言数据,且无需对齐或分析,实现了良好的表现,并显著提高了末端自动语音识别。
- 基於 Transformer 語言模型的抽取式和生成式神經文件摘要
本文采用神经抽象总结的方法来产生长文档的抽象总结,该方法使用一个简单的抽取步骤来生成一个摘要,然后将其用作相关信息的转换器语言模型的条件,然后生成一个摘要。我们展示了这个抽取步骤显著地改善了总结结果,而且这种方法产生的抽象总结比以前采用复制 - 利用用户生成数据学习评论生成
提出了一种结合检索和生成方法的方法,使用关注模块检索有信息量和相关性的用户生成数据评论,然后与文章一起作为输入,使用具有复制机制的序列到序列模型。在大规模评论生成数据集上展示了该模型的稳健性并证明了其在 BLEU-1 得分方面比具有注意力机 - 抽象摘要生成中注重结构的复制机制
该研究提出了一种结构注入的复制机制,将源依赖关系结构与抽象的句子摘要生成器的复制机制自然地结合起来。实验结果显示将源语句的句法信息纳入系统的有效性,并且我们提出的方法与最先进的方法相比,取得了较好的效果。
- CVPR图像生成中引入复制机制,学习新物体
本文提出了一种新的用于图像描述的 LSTM-C(长短时记忆与复制机制结合)模型,它融合了卷积神经网络和递归神经网络,通过复制机制选择合适的单词描述图像中的新物体,实验结果显示这一模型优于目前深度学习领域的其他模型。
- 面向基于会话的查询建议的学习注意力、复制和生成
本文提出了一种基于会话的查询建议定制序列到序列模型,利用查询感知的注意机制掌握会话上下文的结构,使用复制机制赋予模型解码器存取源单词的能力,实现对于大部分之前提交查询的保留,提出了模型评估的方法以验证其性能,实验证明该模型在查询建议任务中的 - Align and Copy: UZH 在 SIGMORPHON 2017 共享任务中的形态回缀表现
本篇论文介绍了苏黎世大学在 SIGMORPHON 2017 共享任务中针对形态重构的提交。 我们专注于神经网络方法,可以在有限资源的情况下解决任务。 我们提出了两种具有硬单调注意机制的循环神经网络架构,这些架构在复制方面很强大,并且在实现方 - 基于复制增强的序列到序列模型在任务型对话中表现良好
本篇论文采用潜在神经嵌入状态和学习选择性关注,以及复制上下文等技术,对话系统可以不依赖于显式的用户意图和信念状态而实现特定领域用户对话。它证明了简单的序列到序列神经网络结构与复制机制的有效性,并在每次对话回应生成方面比更复杂的记忆增强模型高