May, 2024

多语言信息检索的蒸馏

TL;DR使用Translate-Distill框架进行跨语言信息检索 (CLIR) 已经显示出其通过翻译和塑造训练跨语言神经双重编码器模型的好处。然而,Translate-Distill仅支持单一语言。本研究扩展Translate-Distill并提出了用于多语言信息检索 (MLIR) 的多语言Translate-Distill (MTD) 方法。我们通过nDCG@20指标和MAP指标在性能上展示了使用MTD培训的ColBERT-X模型优于以前的最先进训练方法Multilingual Translate-Train,其在nDCG@20上提高了5%到25%,在MAP上提高了15%到45%。我们还展示了该模型对于训练批次中语言混合方式的鲁棒性。我们的实现可在GitHub上找到。