该研究探讨了大型语言模型的细调策略,发现可替代方法在领域外泛化方面与标准方法相媲美,强调了对有效提示的需求,并针对可用资源和任务适应性进行合适的细调方法选择。
May, 2024
通过借鉴 RL 的框架,引入了一种名为模拟微调(EFT)的技术,从而将预训练和微调的知识与技能解耦,并且通过扩大微调的规模来提高可帮助性,扩大预训练的规模来提高事实性,从而实现在测试时调整不同行为特征的方法,而无需额外训练。
Oct, 2023
大型语言模型 (LLMs) 具有令人印象深刻的任务解决能力,通过提示技术或系统设计实现。然而,在规划任务方面,对它们的熟练度引发了一些关注,因为它们常常难以生成有效的计划。本文研究了精调对 LLMs 规划能力的影响。我们的发现表明,通过大规模精调 (数千个具体示例),LLMs 可以在规划中获得良好的性能。然而,精调伴随着显著的经济和计算成本。为了解决这一挑战,我们提出了最大多样性精调 (MDFT) 策略,以改进规划领域中精调的样本效率。具体地,我们的算法 (MDFT-g) 通过使用图形表示对规划任务实例进行编码,并在向量空间中选择一组样本,以最大化数据的多样性。我们通过实验证明,MDFT-g 在多个基准领域的各种规模上始终优于现有的基准。
Jun, 2024
AutoFT 是一种基于数据驱动的方法,用于指导基础模型的微调,以优化性能和改善泛化能力。实验证明 AutoFT 在多个分布转移任务上表现出色,显著提高了对新的异常数据的泛化能力,并在 WILDS-iWildCam 和 WILDS-FMoW 基准测试上取得了新的最佳结果。
Jan, 2024
预训练语言模型与基于它们的参数高效微调方法被综合评述,重点讨论了内存效率和计算资源限制等参数效率问题以及应用于下游任务的挑战和机遇。
Dec, 2023
本文提出了一种新颖的无微调的自然语言处理模型 Fine-tuning-free strategy,通过使用语言和强任务感知的 teacher signal 进行交互式训练,提高了该模型在多项任务中的泛化性和鲁棒性,并且相对于大型模型如 GPT-3 和 InstructGPT 而言,该模型较小,只有 0.3B 的参数。
May, 2023
本研究系统地探讨了在预训练语言模型(Pre-trained Language Models)规模扩大或转移方法改变时,检测样本分布变化的能力如何随之改变,着重评估了各种 PETL 技术在三个不同意图分类任务上的效果。
Jan, 2023
本文提出了一种名为 Meta Fine-Tuning (MFT) 的有效学习过程,该过程可作为元学习器解决多个相似的自然语言处理任务,以获取高度可转移的知识,并通过优化一系列新颖的领域破坏损失函数来鼓励语言模型对领域不变表示进行编码。实验证明,MFT 对于小样本学习具有很大的用途。
Mar, 2020
使用自我蒸馏微调(SDFT)方法,本研究通过引入由模型自身生成的蒸馏数据集来填补任务数据集与大型语言模型之间的分布差距,解决了在特定任务上微调时性能和通用指令跟随能力之间的挑战,并在多个基准测试中证明了 SDFT 方法在减轻灾难性遗忘的同时,在下游任务上实现了与传统微调相当或更优的性能,并且还展示了 SDFT 方法在保持 LLMs 的实用性和安全性之间的潜力。
Feb, 2024
通过定期重置部分参数,半精调可以恢复一些原始知识,并且在大规模语言模型中减轻了遗忘问题,同时在一系列下游基准测试中取得了最佳性能。
Apr, 2024