Feb, 2024
BGE M3-嵌入:通过自我知识蒸馏实现多语言、多功能、多粒度的文本嵌入
BGE M3-Embedding: Multi-Lingual, Multi-Functionality, Multi-Granularity
Text Embeddings Through Self-Knowledge Distillation
TL;DR本文介绍了一种新的嵌入模型M3-Embedding,其以其多语、多功能和多粒度的通用性而脱颖而出。它支持100多种工作语言,展示了在多语言和跨语言检索任务上的最新性能,同时能够同时执行三种常见检索功能:密集检索、多向量检索和稀疏检索,为现实世界的信息检索应用提供了统一的模型基础。该模型能够处理不同粒度的输入,从短句到最长8192个标记的长文档。我们提出了一种新颖的自知识蒸馏方法,通过集成来自不同检索功能的相关性得分作为教师信号来增强训练质量,并优化了批处理策略,以确保嵌入的区分性。据我们所知,M3-Embedding是第一个实现如此强大通用性的嵌入模型。该模型和代码将公开在指定的URL链接中。