评估参数高效微调方法训练的参数矩阵的可移植性
本文通过全面实证研究发现,适当的 Tuning 数量的 Parameter-efficient fine-tuning methods,特别是使用了嵌入小型前馈神经网络 (adapters) 的模型,可以在机器翻译 (MT) 任务上达到效果与全模型调整类似的水平,尤其当参数预算为 10%的情况下。但是,当调优参数数量减少时,PEFT 的性能会随之减弱,这一降低幅度取决于语言对的关系,而对于小型数据集,PEFT 的性能优于同样的预训练模型的全模型调整。
May, 2022
本文提出了一个参考框架,该框架标准化了不同 PEFT 技术共享的方面,同时将差异隔离到特定位置和与标准组件的交互。通过标准化和隔离差异的过程,PEFT 技术的模块化视图出现,既支持不同技术及其效率和任务表现的直接比较,也支持不同类型的调优模块的可重用性和组合性的系统探索。我们演示了如何应用参考框架来了解 PEFT 技术的属性和相对优势,因此,可以为特定任务选择技术,并为新的 PEFT 技术设计选择。
Apr, 2023
使用四种常见的 PEFT 方法对开源 MLLMs 的 LLM 组件进行微调,比较它们在参数效率方面的表现,结果显示 adapter 是效果最好的 PEFT 方法。
Jun, 2024
参数高效微调方法在适应多样化任务的大规模预训练语言模型中变得越来越重要,通过在资源有限的语言机器翻译中提高翻译准确性来实现适应性和计算效率的平衡。通过使用 SacréBLEU 评分,我们进行了具备不同资源和域的全面实证实验,评估了共计 15 种架构的 8 种参数高效微调方法的性能。结果表明,6 种参数高效微调架构在域内和域外测试中均超过了基准线,其中 Houlsby+Inversion 适配器表现最佳,验证了参数高效微调方法的有效性。
Apr, 2024
本文介绍了一个名为 AutoPEFT 的框架,通过高维贝叶斯优化自动配置多个 PEFT 模块,控制并最大化性能和参数效率之间的平衡,实现对于性能和参数节约的优化,表现要优于现有的 PEFT 方法,高于标准 GLUE 基准上的平均值,并且在单个任务上进行配置搜索,AutoPEFT 即使优于全模型微调。
Jan, 2023
本文首次全面评估 Parameter-Efficient Fine-Tuning (PEFT) 技术对不同医学图像分析任务的适用性,通过超过 600 个控制实验,研究并比较了 16 种不同的 PEFT 方法,解决了 PEFT 技术在基础模型中的应用问题,展示了在某些情况下的高达 22% 的表现提高,并证明了 PEFT 对于医学图像识别和文本到图像生成具有实际应用价值。
May, 2023
通过介绍 Parameter Efficient Fine-Tuning 算法以及系统实现相关内容,该论文对大模型在计算成本方面的问题进行了综述,提供了对性能和系统实施的深入洞察,为研究人员了解最新发展和实际应用提供了不可或缺的资源。
Mar, 2024
模块化深度学习在自然语言处理应用中展现了潜力,而参数高效微调(PEFT)模块化已经表明其适用于各种情况,从领域自适应到多语言设置。本文通过知识蒸馏的视角填补了现有模块化方法的一个重要空白,并提出了一种非常简单的方法,在同一家族的预训练语言模型(PLM)之间传递预训练、任务特定的 PEFT 模块。此外,我们提出了一种允许在不改变推理复杂度的情况下在不兼容的 PLM 之间传递模块的方法。多语言和 PEFT 方法上对命名实体识别、自然语言推理和剽窃识别任务的实验展示了可传递的模块化的初步潜力。
Mar, 2024