该研究探讨神经机器翻译模型所学到的嵌入,在需要同时考虑概念相似性和词汇 - 句法角色知识的任务中,它们的性能优于单语言模型所学到的嵌入。研究结果还表明,词汇扩展算法对嵌入质量的影响很小。
Dec, 2014
在 1295 种语言的大规模多语言数据集中训练神经网络模型,以研究神经模型对于语言结构所能学习到的广义化程度,发现神经网络模型在语言结构的广义化方面的表现并不好,并会存在误报,但有些表现仍然与语言学中的传统特征非常接近,为了鼓励在这个领域的持续研究,我们发布了多个资源,包括语言表示的多重集合、多语言单词嵌入、映射和预测的语法和形态特征以及提供语言表征的具有语言学意义的评估软件。
Jan, 2023
本研究提出了两种方法,即语言嵌入体现和语言感知多头注意力,以学习信息量丰富的语言表示,从而缓解在多语言神经机器翻译模型中引导翻译的语言令牌的失效问题,并且在两个大规模多语言神经机器翻译数据集上取得了显著的性能提升。同时,进一步的语言类型学预测实验证明,我们的方法学习到的基于矩阵的语言表示可以捕捉丰富的语言类型学特征。
Sep, 2022
本研究分析了神经机器翻译模型在不同粒度上学习到的表示,并通过相关的外围特性对其质量进行评估,结果表明深层次的 NMT 模型学习了大量的语言信息,其中鲜明的发现包括:(i)词组结构和词类等语言单元在模型较低的层次上被捕捉;(ii)而词汇语义或非局部的句法和语义依存则在较高层次上表示更好;(iii)使用字符所学习的表示比使用子词单位所学习的更具有词形信息;(iv)多语言模型所学习的表示比双语模型更加丰富。
Nov, 2019
本文研究了多语种上下文嵌入的语言中性和词汇语义,提出了两种实现更强语言中性的方法,并展示了在不使用平行数据的情况下如何达到语言识别的最新准确率以及匹配平行句子的词对齐统计方法的性能。
Apr, 2020
本文研究表明神经语言模型在多语言语料库上的训练可以用来学习语言的分布式表示,尤其是在语料库被翻译成英文的情况下。我们研究了语言表示与各种相似性之间的相关性和因果关系,发现结构相似是最能影响语言表示相似性的,而遗传关系则是一个混淆因素。这项研究可以促进自然语言处理和语言学的相互发展。
Jan, 2019
该研究系统研究了端到端的神经机器翻译的上下文向量作为句子的交互语言表征的功效,并在可比较语料库中取得了较高的平行句子识别准确率。
Apr, 2017
本研究使用神经机器翻译框架跨越六种完全不同的语言,在学习联合句子表示方面。我们的目标是构建一种与语言无关的表示形式,有可能捕捉到基础的语义。我们定义了一种新的跨语言相似度衡量方式,对我们的模型学习出的 140 万个句子表示进行比较,并研究了相似句子的特征。实验证据表明,嵌入空间中相似的句子实际上具有高度的语义相关性,但通常具有不同的结构和语法。这种关系也适用于不同语言之间的比较。
利用 1017 种语言构建一个神经机器翻译系统,预测存在于语分类数据库中缺失的语言特征,实验表明该方法不仅能推测句法特征,还能推测音位、音库特征。
Jul, 2017
大语言模型(LLM)革命中,嵌入是各种系统的关键组成部分。在本文中,我们迈出了迈向构建强大统一的嵌入模型的第一步,证明了多种语言(自然语言和编程语言)的预训练变换器解码器在有限英文数据微调后能够实现普遍嵌入。我们对各任务进行了全面实践和彻底评估,结果表明这是一条有希望的道路,可以应用于不同任务和语言。
Oct, 2023