Jun, 2024

将语言模型改造为嵌入模型:找寻计算最优配方

TL;DR本文研究如何在计算优化的情况下对文本嵌入模型进行对比训练,通过使用一系列预训练的只有解码器的语言模型来产生最佳的模型配置、数据量和微调方法,从而适应不同的计算预算级别。我们通过广泛的实验得到了这些结论,可以帮助从业者为他们的嵌入模型做出明智的设计选择。具体而言,我们的发现表明,完全微调和低秩适应微调分别在较低和较高的计算预算下产生最佳模型。