利用神经机器翻译嵌入词汇相似度
本文介绍一种共享 — 私有双语词嵌入方法,该方法能够在神经机器翻译中提升性能,同时减少模型参数。实验表明,该方法在不同语系和语言字母表的 5 种语言对中大大提高了性能。
Jun, 2019
该研究系统研究了端到端的神经机器翻译的上下文向量作为句子的交互语言表征的功效,并在可比较语料库中取得了较高的平行句子识别准确率。
Apr, 2017
在 1295 种语言的大规模多语言数据集中训练神经网络模型,以研究神经模型对于语言结构所能学习到的广义化程度,发现神经网络模型在语言结构的广义化方面的表现并不好,并会存在误报,但有些表现仍然与语言学中的传统特征非常接近,为了鼓励在这个领域的持续研究,我们发布了多个资源,包括语言表示的多重集合、多语言单词嵌入、映射和预测的语法和形态特征以及提供语言表征的具有语言学意义的评估软件。
Jan, 2023
本研究使用神经机器翻译框架跨越六种完全不同的语言,在学习联合句子表示方面。我们的目标是构建一种与语言无关的表示形式,有可能捕捉到基础的语义。我们定义了一种新的跨语言相似度衡量方式,对我们的模型学习出的 140 万个句子表示进行比较,并研究了相似句子的特征。实验证据表明,嵌入空间中相似的句子实际上具有高度的语义相关性,但通常具有不同的结构和语法。这种关系也适用于不同语言之间的比较。
Apr, 2017
本文研究了神经机器翻译系统在不同语言对之间的翻译表现,发现目标语言与英语越相似,翻译表现越好。另外,还探讨了在基于 Transformer 的模型中提供英语词汇的词性标记对翻译表现的影响。
Dec, 2021
该研究提出了一种神经嵌入模型,利用双语词典将文字定义映射到双语目标词汇,探索不同的句子编码技术以及采用多任务学习和联合学习等关键学习策略来增强学习过程,实验结果表明,该模型在跨语言反向字典检索任务和双语释义识别问题上表现优异,并有效地解决了双语释义识别问题。
Aug, 2018
本研究提出了两种方法,即语言嵌入体现和语言感知多头注意力,以学习信息量丰富的语言表示,从而缓解在多语言神经机器翻译模型中引导翻译的语言令牌的失效问题,并且在两个大规模多语言神经机器翻译数据集上取得了显著的性能提升。同时,进一步的语言类型学预测实验证明,我们的方法学习到的基于矩阵的语言表示可以捕捉丰富的语言类型学特征。
Sep, 2022
本论文提出了一种新的共享词汇的设计方法,通过定义词级别信息传递路径和使用图网络来融合跨语言的词嵌入,避免了多语言之间文字编码的问题,实验还表明该方法在高低资源多语言机器翻译中可实现显著的 BLEU 分数改进,且只需额外训练少于 1.0%的可训练参数,计算成本增加有限。
May, 2023