Oct, 2024

保存预训练表示空间:大型多模态模型中前缀调优的有效性

TL;DR本文探讨了大型多模态模型(LMMs)的参数高效微调(PEFT)方法,尤其是前缀调优如何在保留预训练表示空间方面表现优异。研究表明,传统的调优方法如LoRA和Adapters会扭曲预训练时学习的特征表示空间,而前缀调优能更好地保持这种表示,提出的前缀调优PEFT(PT-PEFT)策略显著提升了图像描述和视觉问答任务的性能。