语言嵌入:用于语言类型学和跨语言迁移学习
在 1295 种语言的大规模多语言数据集中训练神经网络模型,以研究神经模型对于语言结构所能学习到的广义化程度,发现神经网络模型在语言结构的广义化方面的表现并不好,并会存在误报,但有些表现仍然与语言学中的传统特征非常接近,为了鼓励在这个领域的持续研究,我们发布了多个资源,包括语言表示的多重集合、多语言单词嵌入、映射和预测的语法和形态特征以及提供语言表征的具有语言学意义的评估软件。
Jan, 2023
我们学习了分布式语言表述的方法,可以用来预测语言在不同类型水平和 NLP 模型中的相似性,进而预测 WALS 中的语言类型特征。
Feb, 2018
通过系统比较四种不同的方法,本研究对于在四个不同语言对上诱导跨语言词向量的方法进行了评估,包括内在评估和外在评估,并展示在某些任务上,廉价监督模型的性能是有竞争力的。
Apr, 2016
探索了一种使用双编码器学习跨语言句子表示的自然环境,以克服多语言神经语言建模中标记化非英语数据的缺乏,并在许多单语、跨语言、零样本 / 少样本学习任务上对跨语言表示进行了全面评估,并分析了不同的跨语言嵌入空间。
Oct, 2018
本文中提出采用对抗性训练从辅助语言中提取无标注句子帮助学习跨语言不变表示,进而用于跨语言转移,通过实验证明,对抗性训练能有效提高依存句法分析的跨语言性能。
Sep, 2019
本文通过大量的评估,分析了多种跨语言嵌入模型的优劣,特别是在目标语言,训练语料库和监督程度等不同方面的限制,从而对 “高质量跨语言嵌入模型可以在不需要太多监督的情况下学习到” 的观点提出了质疑。
Aug, 2019
本文提出了简单而有效的方法,通过使用单语语料库而无需任何回译来改善跨语言嵌入的逐字翻译,并结合语言模型和噪声自编码器来提高其翻译性能,分析了词汇量和去噪类型对翻译效果的影响。
Jan, 2019
本文研究了在多语言训练中的强大的语句编码器,探讨了是否可以通过几何映射来间接地操纵语言属性,并用预训练的多语言自编码器验证了该方法的有效性。
Apr, 2021