多阶段影响函数
本文旨在研究预训练与微调之间的关系,提出了一系列度量指标,探讨了预训练模型中不变性的传递性、微调过程中对不变性的保留与丢失、以及预训练模型在下游任务中的表现和变化。
Jul, 2023
本文提出了预细调(pre-finetuning)的方法,是在语言模型预训练和微调之间增加一个大规模学习阶段,旨在促进学习出更好地适用于许多不同任务的表示。通过大规模的多任务学习,预细调在广泛的任务中显著提高了预训练鉴别器和生成模型的性能,并显著提高了微调的样本效率。
Jan, 2021
运用一种新的理论框架,研究无监督预训练对细调模型泛化能力的影响,并通过分析两个具体场景的泛化上限,提出了一种新的预训练正则化方法,从而促进了细调模型的泛化能力。
Mar, 2024
引入一种新的预训练程序,利用有监督对比学习来区分每个预训练数据集中的特征,进而通过将目标数据与预训练数据集的学习动态更加紧密地对齐,以提高目标数据的准确预测。
Nov, 2023
本文提出了一个实用性框架 Fennec,通过将所有模型和历史任务映射到一个 transfer-related 子空间中,以判断他们之间的可迁移性,并通过一个大型视觉模型来推断新任务在 transfer 空间中的表示,最后通过 rigorous testing 在两个基准测试上验证了框架的有效性。
Mar, 2024
本文通过引入一种基于文本监督的微调方法(TeS),旨在缓解预训练模型中的 bias 问题,并在 11 个下游任务上进行了验证。实验结果表明,该方法能够显著提高微调的效果。
Apr, 2023
我们提出了一个基于先验的端到端三阶段监督微调模型,它证明比传统的微调方法更有竞争力。我们的模型通过一个采样器和重叠估计神经网络来稳固三类数据分类,并将预处理数据集分三批注入预训练模型进行 LORA 微调。然后,我们设计了一个先验模块耦合系统提示、向量数据库和抽象语法树任务分割。最后,对基于先验的微调模型应用压缩方法和正则化约束,并在输出端进行文本过滤以获得逐步增量式的引导结果。我们的模型是首个真正具备丰富教育知识、逐步增量引导输出和答案保密等特征的导师角色研究的努力。广泛的实验表明,与开源模型相比,我们的模型在编码能力方面也达到了最先进水平,在 HumanEval (@pass 1) 基准测试中取得了令人印象深刻的 75.10%。此外,我们的模型具有强大的对话能力,13B 量化版本在 MMLU、C-Eval 和 AGIEval (5 shot) 对话评估基准测试中分别达到了 56.34、50.60 和 45.27 的分数。
Mar, 2024