Jul, 2023

利用大型语言模型扩展句子嵌入

TL;DR通过上下文学习,我们提出了一种基于上下文学习的方法,旨在提高句子嵌入的性能。我们的方法能够使大型语言模型生成高质量的句子嵌入,并且在语义文本相似度任务上表现与当前对比学习方法相当。通过调整模型大小,我们发现超过几十亿参数的模型会对语义文本相似度任务的性能造成损害,但最大的模型超过了其他模型,并在迁移任务上取得了新的最先进结果。我们还使用当前的对比学习方法对大型语言模型进行了微调,将包含我们基于提示的方法的2.7B OPT模型的性能超过了4.8B ST5的性能,在语义文本相似度任务上实现了新的最先进结果。