使用适配器实现跨语言稠密检索的高效零 - shot 转移
在不存在语言的监督数据的情况下,本文研究了语言适配器在自然语言理解任务中零样本跨语言转移中的作用,通过对两个多语言模型和三个多语言数据集的详尽消融研究,结果表明目标语言适配器在任务、语言和模型间影响高度不一致。相比之下,保留源语言适配器通常能够获得相当甚至更好的性能,训练后去除语言适配器只有较弱的负面影响,表明语言适配器对于预测结果的影响并不显著。
Jan, 2024
研究采用稀疏微调掩码和适配器等参数优化方法,提出轻量级的零 - shot 转移多语言和跨语言检索算法,能够快速生成更为高效精确的语义排名结果。
Apr, 2022
本文介绍了 ColBERT-X,这是一个使用 XLM-RoBERTa 编码器的多重表示稠密检索模型,用于支持跨语言信息检索(CLIR)。在几种语言的自适应文件排名任务上表现出了在传统词汇 CLIR 基线之上的显着和统计上的显着改进。
Jan, 2022
研究了适配器在信息检索领域中的应用,指出适配器 - SPLADE 可以优化只有 2%的训练参数,比全微调模型和现有的参数高效密集 IR 模型表现更佳,并探讨了适配器在跨领域 BEIR 数据集和 TripClick 上的领域自适应,以及 正确性的知识共享,从而完善了适配器在神经 IR 中的研究。
Mar, 2023
本文提出在预训练的多语言模型上训练语言家族适配器,以促进跨语言转移。该模型一致优于其他基于适配器的方法,并证明了语言家族适配器提供了一种有效的将语言翻译到预训练期间未见过的语言的方法。
Sep, 2022
本研究使用已训练好的 mBERT 模型对英语模型进行零样本迁移,并尝试采用小型平行语料库进行跨语言调整以提高性能表现,结果表明跨语言调整对不同语言的自然语言处理任务表现效果显著,且可以提高语义相似词汇的嵌入向量距离。
Apr, 2022
XMAdapter 是一种跨模态参数高效的适配器方法,通过建立文本和图像的缓存模型,并利用视觉 - 语言双模态信息进行检索以获得推理线索。通过动态调整关联比例实现跨模态融合,解耦不同模态相似性以评估其各自的贡献,并通过适应性调整样本学习强度来增强模型性能。实验结果表明,XMAdapter 在准确性、泛化能力和效率方面明显优于以前的基于适配器的方法。
Apr, 2024
本研究提出一种在多语言预训练模型中解决遗忘问题的方法 -- 使用结构适配器仅更新 0.6%的总参数进行微调,取得了代码搜索和汇总任务的最新成果,并在跨语言和低资源情景下实现了良好的性能。
Mar, 2023
本研究旨在探讨如何在不同语言中使用基于转换器的双编码器设计实现单语检索,包括使用多语言变压器的交叉语言一般化能力,在多场景下使用最佳实践指南解决单语检索问题,从而为构建低资源语言的搜索应用提供指南和基础。
Apr, 2022