多语言问答的翻译学习
研究单语和多语言语言模型在英语、芬兰语和日语问答任务中的表现,并开发用于判断问题是否可回答和标识上下文中答案的模型,并尝试评估预训练的多语言编码器(Multilingual BERT)在跨语言零 - shot 学习中的效果。
Dec, 2022
本论文聚焦于在多语言环境下推进处理末端用户问题的 QA 技术,涉及多语性和混编等问题并提出了一种多文档利用的多跳问题生成技术,实验证明该方法可在 MQA、VQA 和语言生成等多个领域和语言中达到最先进的表现,是通用的,可用于提高 QA 系统性能。
Nov, 2022
本文探索了提高多语言问题回答的交叉语言转移性能的策略,包括使用机器翻译生成的数据来增强原始英语训练数据,以及提出两种新颖的策略:语言对抗性训练和语言仲裁框架,这些策略显著提高了零资源的交叉语言转移性能,并导致 LM 嵌入不那么语言特定的结果。经验证明,这些模型在最近推出的 multilingual MLQA 和 TyDiQA 数据集上优于以前的零 - shot 基线。
Dec, 2020
在这篇论文中,我们研究了如何利用问题对齐方法提高大型语言模型在非英语性能上的应用,通过对可执行代码推理和常识推理的影响进行探索,并通过代理调整的方式实现对极大型语言模型的高效应用。多语言推理基准测试结果显示,问题对齐方法能够在不同推理场景、模型系列和大小上提升多语言性能。与 LLaMA2 模型相比,我们的方法平均提高了 mGSM 的准确率 12.2%,即使在 70B 模型上也是如此。通过分析表示空间、思维链和翻译数据规模,我们还揭示了问题翻译训练如何增强 LLMs 内部的语言对齐,并塑造它们的工作模式。
May, 2024
本论文提出了一种基于广义跨语言转移的框架,可以增强模型理解不同语言的能力,通过不同语言组成多语言知识三元组,并通过链接预测技术设计一种知识注入策略,从而深入挖掘丰富的语义知识;实验结果表明,该方法可以大幅提高性能。
Apr, 2023
该研究致力于针对电子商务应用中需要支持多语言的情况,建立一种跨语言的产品问答 (PQA) 系统,为了实现这一目标,它提出了一个包括 12 种语言在九个领域中的大规模标注跨语言 PQA 数据集,并评估了包括机器翻译在内的多种方法。作者强调,领域内的数据对跨语言排序任务非常重要,而候选的排序通常更喜欢基于运行时翻译的方法,而答案的生成更倾向于使用多语言方法,但是英语和跨语言测试集之间仍存在明显的性能差距。
May, 2023
该研究提出了一个名为 MLQA 的多语言提取式问答(QA)评估基准,旨在推动跨语言 QA 研究。 MLQA 包含 7 种语言的 QA 实例,并使用一种新颖的对齐上下文策略,基于 Wikipedia 文章构建,以此作为现有提取式 QA 数据集的跨语言扩展。
Oct, 2019
本篇论文研究了如何在社区论坛中寻找相关问题,尤其是当新问题的语言与现有问题不同时,我们采用基于核的方法和前馈神经网络,通过大规模平行语料库训练机器翻译系统、双语词典和跨语言单词嵌入以解决该问题,并通过跨语言树核和跨语言嵌入的方法,使得在处理翻译文本方面的性能提高并且接近于单语言系统,但是整体而言,基于核的方法在所有情况下都表现更好。
Oct, 2017