- ACL条件生成实现的文档级事件论元抽取
本文提出了一种文档级神经事件关系抽取模型,将其作为一种条件生成的过程,并使用事件模板。此外,作者构建了一个新的包含完整事件和共指注释的文档级事件抽取数据集 WikiEvents。研究结果表明,该模型在事件论证抽取方面取得了较好的性能,并展示 - AAAI基于实体内外结构的提及依赖建模,用于文档级别关系抽取
该研究提出了一种名为 SSAN 的方法,该方法利用实体结构中的依赖关系来改进关系提取的性能,并在三个流行的文件级别关系提取数据集上取得了最新的最佳表现。
- 日英会话平行语料库对齐文本
本篇论文介绍了如何在文档级机器翻译中使用上下文来训练模型提升翻译质量,并且提供了一个平衡高质量的商务对话语料库用于调整和测试。此外,还提出了一种手动标注上下文信息用于减轻自动评估文档级系统的问题。
- EMNLP文档级远程监督下的去噪关系抽取
本研究提出了一种基于预训练模型的方法,用于减少文档级别关系抽取中由远程监督产生的噪声。实验结果表明,该方法能够从噪声数据中捕获有用的信息,取得了良好的效果。
- 深入探究上下文感知神经机器翻译
本文研究了文档级 NMT 模型在四个不同领域中的性能,并发现不同的架构适用于不同的任务,同时发现上下文感知系统在任务特定问题上有改进,而文本级别的指标(如 BLEU)没有显着改进。同时,本文还表明,文档级别的回译对于缺乏文档级别双文本的情况 - EMNLP通过强化学习实现文档级神经机器翻译的动态上下文选择
本文提出一种基于强化学习的动态上下文选择方法,通过一个独立于翻译模块的选择模块对候选上下文句子进行评分,并提出两种策略来明确定义一个可变的上下文句子数量,该方法可以针对不同的源句子选择适应性的上下文句子,显著提高了文档级翻译方法的性能。
- ACLGRIT: 文档级事件实体抽取的生成角色填充变换器
使用生成式基于 Transformer 的编码器 - 解码器框架,以考虑文档级别上下文信息的方法来重新思考文档级别下的角色 - 实体抽取问题,并在 MUC-4 数据集上展示其优越性。
- 使用自我训练在句子级神经机器翻译模型中捕获文档上下文
该研究提出了一种基于自训练的方法,可以在不需要专门的并行文档级语料库和模型的情况下,将已训练好的句子级神经机器翻译模型应用于文档级机器翻译任务,并在三个文档级数据集上进行了评估,结果显示我们的方法在 BLEU 指标上具有更高的得分和更高的人 - 文档级神经机器翻译:方法与评估调查
这篇综述论文旨在总结文档级机器翻译的最新研究进展,重点讨论了神经网络模型、训练策略、评估指标等方面的创新,为该领域的研究者提供状态认知和未来方向。
- WMT19 中的英捷系统:文档级 Transformer
本文介绍在 WMT19 共享任务中,我们采用 Transformer 模型和 document-level 训练方式,用于英捷克翻译,以提高翻译文件的充分性和连贯性。
- ACL一种变分方法用于弱监督的文档级多方面情感分类
本文基于依赖解析和简单的规则,提出了一种弱监督多方面情感分类方法,通过引入一个潜在变量和变分下界来实现情感极性的学习,实验表明该方法优于弱监督基线模型并与具有百个标签的监督方法具有可比性。
- WSDM基于降秩岭回归的跨语言文档嵌入
本文介绍了一种新的跨语言文件嵌入方法 Cr5,它使用跨语言降维回归来在多语言文本语料库中将文档嵌入到单一、不依赖于语言的向量空间中。本方法使用奇异值分解作为核心操作,可扩展性极强,在跨语言文档检索任务中实现了最先进的性能。
- ACL多尺度表示学习在文档级 N 元关系抽取中的应用
本文提出了一种新颖的多尺度神经架构,以文档级别的 $n$ 元关系提取为目标,通过整合文档中各种文本跨度上的学习表征和子关系层次间的信息,扩大了系统的视野,增加了召回率和精确度,并在生物医学机器阅读上实验验证优于先前的 $n$ 元关系抽取方法 - EMNLP基于缓存的长短期记忆神经网络用于文档级情感分类
提出了 Cached Long Short-Term Memory 神经网络(CLSTM)来捕获长文本中的语义信息,引入了缓存机制以提高循环单元的记忆能力,在文档级情感分类方面表现优于现有模型。