ColA: 梯度学习的协作调整
通过介绍 Parameter Efficient Fine-Tuning 算法以及系统实现相关内容,该论文对大模型在计算成本方面的问题进行了综述,提供了对性能和系统实施的深入洞察,为研究人员了解最新发展和实际应用提供了不可或缺的资源。
Mar, 2024
评估了 Parameter Efficient Fine-Tuning 方法在深度学习中的有效性,以减轻计算负担、提高训练速度和降低内存使用,从而推动深度学习的更广泛应用和模型优化的创新。
Apr, 2024
参数高效梯度投影(PEGP)是第一个在不同调节范例中数学证明提供抗遗忘机制的统一方法,通过将正交梯度投影引入不同的 PET 范例中,从而有效抵制 PET 基础的连续学习中的遗忘现象。
May, 2024
通过使用贝叶斯学习技术和 Laplace 逼近,我们展示了在更通用的参数高效微调(PEFT)框架中如何解决灾难性遗忘问题,并比较了使用对角和克罗内克逼近的方法在预训练知识保留上的性能差异。
Feb, 2024
通过研究下游领域的损失函数从随机初始化到预训练初始化的变换,本文揭示了参数梯度稀疏性的特性,提出了基于梯度的稀疏微调算法 Sparse Increment Fine-Tuning (SIFT),并在多个任务上验证了其有效性。
Dec, 2023
通过合作式黑盒调整,本研究介绍一种参数高效微调方法,用于对视觉语言模型进行特定任务或场景的适应。使用文本提示优化和输出特征调整来处理闭源模型的访问障碍,并在十一个下游基准测试中得到显著改进。
Dec, 2023
本文旨在探索将 Parameter-Efficient Fine-Tuning (PEFT) 技术应用于基于图的任务,提出了一种名为 G-Adapter 的新型结构感知 PEFT 方法,并使用 Bregman Proximal Point 方法进一步缓解特征分布变化问题,研究结果表明,G-Adapter 相对于现有的 PEFT 方法,在 9 个基于图的基准数据集上获得了最先进的性能,并且相比于传统的方法提供了巨大的内存节省。
May, 2023
通过比较 Few-shot in-context learning 和 Parameter-efficient fine-tuning 的方法,我们证明 PEFT 具有更好的精度和极低的计算成本。我们提出了一种名为 (IA)$^3$ 的新的 PEFT 方法,并提出了一个基于 T0 模型的简单配方,称为 T-Few,在没有任务特定调整或修改的情况下可以应用于新任务。我们在 RAF 基准测试中验证了 T-Few 的有效性,首次达到了超人类表现,并超越了现有技术的 6%。
May, 2022
通过将知识图嵌入到大型语言模型中,我们提出了一种名为 KnowLA 的知识适应方法,该方法通过在语言模型中插入适应层,将文本中出现的实体的嵌入融入到语言模型中,并与 LoRA 一起进行训练。实验结果表明 KnowLA 的有效性和鲁棒性,能够在不改变语言模型参数或输入提示的情况下,激活语言模型中的相关参数化知识以回答问题。
Mar, 2024
提出了一种用于多模态、多任务迁移学习的新型参数高效调参方法(PEFT)框架,它通过 LoRA、BitFit 和 IA3 等技术,在几乎不需要可训练参数和 GPU 内存的情况下,展示了与预训练模型完全微调相当的性能,然而,在多模态微调中,经常需要进行架构修改或完全微调。为了解决这个问题,我们提出了 Context-PEFT,它根据令牌的领域学习不同的适配器参数组,这种方法使得可以实现类似 LoRA 的权重注入,而不需要额外的架构修改。我们的方法在 COCO 字幕任务上进行评估,在类似的数据限制下,优于完全微调,并同时提供了更高的参数效率和计算经济性的解决方案。
Dec, 2023