重温上下文窗口:用于跨语言词嵌入的方法
本文提出了一种基于上下文的跨语言映射技术,利用平行语料库中对齐的句子的平均嵌入来替代单词级别映射,从而实现更好的句子级别跨语言相似性,实验证明该方法能够在句子翻译检索中优于独立于语境的单词映射。
Mar, 2019
本研究提出了一种基于弱监督(仅有相同单词列表)的方法,通过固定目标语言的嵌入并学习与之对齐的源语言的嵌入来解决不同语言的单词嵌入相似性不一致的问题,并在双语词表归纳和 XNLI 任务上取得了较好的结果,相比于传统的映射方法表现更好。
Dec, 2020
本文提出了一种名为 Parallel Context Windows (PCW) 的方法,可缓解任何现成的 LLM 的上下文窗口限制,该方法通过将长上下文分成适合于模型的块(“窗口”)来限制注意机制的应用范围,并在窗口之间重用位置嵌入。我们在模型的大小范围内测试了 PCW 方法,并为具有不同输入和输出空间的任务展示了实质性的改进。该结果为研究将 Parallel Context Windows 应用于其他需要长文本序列的设置提供了动机。
Dec, 2022
本文提出一种使用无监督预训练的深度上下文嵌入的多语言转移方法,可以提高零样本和少样本学习的依赖解析的效果。实验结果表明,该方法在六种测试语言中持续优于之前的最新技术。
Feb, 2019
本研究针对跨语言能力对多语言 BERT 进行了深入实验研究,发现数据大小和上下文窗口大小是跨语言能力的关键因素,探讨了多语言 BERT 中的语言特定信息,通过操作潜在表示控制多语言 BERT 的语言输出,实现了无监督令牌翻译,并提出了一种计算成本低但有效提高多语言 BERT 跨语言能力的方法。
Apr, 2020
通过系统比较四种不同的方法,本研究对于在四个不同语言对上诱导跨语言词向量的方法进行了评估,包括内在评估和外在评估,并展示在某些任务上,廉价监督模型的性能是有竞争力的。
Apr, 2016
探究在基于注意力的神经机器翻译中使用扩展上下文的效果,通过对电影字幕进行翻译实验,研究增加翻译单元之外的片段对源语言上下文和双语上下文扩展的影响,发现模型可以区分不同片段的信息,并且在一些情况下可以改善译文连贯性。
Aug, 2017
本文提出两种改进的解决方案,通过将上下文多义词嵌入视为噪声(去除)和通过生成聚类级别的平均锚嵌入以替换上下文多义词嵌入,提高了跨语言语境下上下文词嵌入对齐的微观性能,同时不会损害双语词汇表归纳任务的宏观性能;对于无监督对齐,我们的方法在双语词汇表归纳任务中显著提高了 10 多分。
Sep, 2019
本文介绍了一种新的度量模型使用上下文的方法,并提出了一种新的训练方法来增加上下文感知模型的使用率。实验证明,这种方法可以提高翻译质量和语义连贯性。
May, 2021