纯微调的模型编辑
通过概念微调(Concept-Tuning)方法,可以改善预训练模型的特征表示,减少罕见特征和虚假关联特征的负面影响,进而提高细调方法在各种数据集上的表现。
Nov, 2023
通过研究发现,Parameter-Efficient Fine-Tuning (PEFT) 技术相较于定位和编辑方法,在时效性知识编辑方面表现更优,从而为大型语言模型的更新提供了一种替代方案。
Jun, 2024
通过比较 Few-shot in-context learning 和 Parameter-efficient fine-tuning 的方法,我们证明 PEFT 具有更好的精度和极低的计算成本。我们提出了一种名为 (IA)$^3$ 的新的 PEFT 方法,并提出了一个基于 T0 模型的简单配方,称为 T-Few,在没有任务特定调整或修改的情况下可以应用于新任务。我们在 RAF 基准测试中验证了 T-Few 的有效性,首次达到了超人类表现,并超越了现有技术的 6%。
May, 2022
评估了 Parameter Efficient Fine-Tuning 方法在深度学习中的有效性,以减轻计算负担、提高训练速度和降低内存使用,从而推动深度学习的更广泛应用和模型优化的创新。
Apr, 2024
通过介绍 Parameter Efficient Fine-Tuning 算法以及系统实现相关内容,该论文对大模型在计算成本方面的问题进行了综述,提供了对性能和系统实施的深入洞察,为研究人员了解最新发展和实际应用提供了不可或缺的资源。
Mar, 2024
通过借鉴 RL 的框架,引入了一种名为模拟微调(EFT)的技术,从而将预训练和微调的知识与技能解耦,并且通过扩大微调的规模来提高可帮助性,扩大预训练的规模来提高事实性,从而实现在测试时调整不同行为特征的方法,而无需额外训练。
Oct, 2023
该研究探讨了大型语言模型的细调策略,发现可替代方法在领域外泛化方面与标准方法相媲美,强调了对有效提示的需求,并针对可用资源和任务适应性进行合适的细调方法选择。
May, 2024
最近的研究应用了参数高效微调技术(PEFTs)来有效缩小预训练和下游任务之间的性能差距。该研究发现,对于与预训练一致的下游微调任务,数据规模不再影响性能,而可微参数规模的影响并不单调,这种观察可指导 PEFTs 的训练策略选择。
Mar, 2024
本文研究了参数高效微调方法和少样本自然语言生成,提出了一个超越传统方法且在训练成本上没有明显增加的方法,同时通过中间实验证明了该方法在少样本场景中的卓越可迁移性,为数据不充足和计算有限的情况提供了解决方案。此外,综合比较了多种参数高效微调方法,揭示了在少样本自然语言生成任务中某些方法在挑战性数据集上可能存在困难。
Sep, 2023
本研究在 Encoder-Decoder transformer 模型中提出了 4 种编辑任务,并展示了这种直接干预方法的高效性,只需一个有效实例就能修复错误的负面模型行为。
Nov, 2022