面向开放词汇神经机器翻译的隐变形模型
在低资源环境中,提出了一种用于模拟复杂形态的框架解决方案,该方案采用了双层 Transformer 架构来编码输入端的形态学信息。同时通过多标签多任务训练和基于 beam search 的解码器,提高了机器翻译性能,并使用通用形式的注意力增强方案来整合预训练语言模型和源语言和目标语言之间的词序关系建模。通过评估多种数据增强技术,提高了在低资源环境中的翻译性能,最终在基纳卢旺达语 - 英语翻译任务中取得了有竞争力的性能,希望我们的结果能够鼓励更多在低资源的神经机器翻译中使用明确的形态学信息以及所提出的模型和数据增强方法。
Apr, 2024
本文提出了使用字符和形态级别单词分解学习单词表示的若干结构,并将这些表示法纳入一种新颖的机器翻译模型中,通过一个硬注意力机制联合学习单词对齐和翻译,从而提高 morphologically rich languages 翻译成英语的机器翻译的性能,相对强基线模型提高了 1 到 1.5 个 BLEU 分数。
Jun, 2016
本文提出用双向循环神经网络替代 NMT 源语言嵌入层,在任何所需的粒度水平上生成组合表示,从而解决基于统计的分词方法中可能导致的形态错误,实现了从字符 N-gram 组成词表示的 NMT 训练方法的一致逆袭。
May, 2018
该研究引入了一种新颖的开放词汇语言模型,包含两个层次:词级和序列级,并通过对字符的表示以及全局的序列级别上下文调整,使模型直接处理字符序列,而不是子词或词级别的词汇表,取得了比强基准表现更好的效果,并且具有文本破坏和域移位的鲁棒性。
May, 2023
我们提出一种新颖的形态学感知概率模型用于双语词典归纳,该模型以结构化方式联合建模词元翻译和屈折形态学。我们的模型利用词元是意义的关键词汇单位而屈折形态学提供额外句法信息的基本语言直觉。这种方法导致了显着的性能改进 - 在监督场景和弱监督场景下,跨 6 种语言对平均准确性提高了 19% 和 16%。作为另一个贡献,我们强调现代 BLI 所面临的忽视屈折形态学的问题,并提出三个改进任务的建议。
Nov, 2020
本研究提出了一种基于形态学的单词分割方法,能够在训练时缩小词汇表的同时保留词结构中的语言和语义信息,以协助神经机器翻译,实验结果表明此方法能显著提高土耳其 - 英语和维吾尔 - 中文机器翻译任务的性能,降低数据稀疏性和语言复杂性。
Jan, 2020
本论文研究了如何在语言的概率模型中考虑单词的子结构。从单词的形态学基本概念出发,提出了三种不同类型的语言模型。在 n 元语言模型中,提出了一种基于复合词分解的 Bayesian 模型,还开发了一种新的分布式语言模型。在这两种情况下,论文表明考虑单词的子结构可以提高模型性能和机器翻译的质量。此外,我们还探讨了一些可以自动学习语言词根及语言特征的模型。这些方法应用在闪族语言上表现出更好的结果。
Aug, 2015