基于适配器混合的预训练模型自我扩展的持续学习
提出了一种增量调整的方法,通过逐渐调整共享适配器的参数而不施加参数更新约束,提高骨干网络的学习能力,并使用存储的原型进行特征采样以重新训练统一分类器,进一步改进性能,实验结果验证了该方法的有效性。
Mar, 2024
通过在预先训练的模型中插入轻量级适配器模块,将自监督语音模型适应到说话人验证任务中,我们提出了一个高效的适配器框架。实验结果表明,该框架在更新仅 5% 的参数的情况下,超过了微调和其他参数高效的迁移学习方法,实现了卓越的性能。
Mar, 2024
使用预训练 Transformers 并扩展它们与 Adapters,我们开发了一种方法来增量训练模型处理任务序列,成功地避免了灾难性遗忘并且在多个任务上表现良好。
Mar, 2022
提出了一种参数高效的持续学习框架,通过在视觉语言模型中动态扩展一个预训练的 CLIP 模型,采用专家混合(Mixture-of-Experts)适配器以应对新任务,并引入分布鉴别自动选择器(DDAS)以保留视觉语言模型的零样本识别能力,并通过各种实验验证,该方法在提升性能的同时减少了 60% 的参数训练负担。
Mar, 2024
本研究提出了带自适应组合模块的连续序列生成方法,以在具有相似任务的情况下保证知识共享,并通过伪经验重播促进共享模块之间的知识转移,实验结果表明,相对于基线方法,该方法在性能和参数效率上表现更好。
Mar, 2022
利用神经架构搜索(NAS)框架提出一种自动且有效的自适应学习方法来优化端到端级联多任务模型,通过在每个特定模块上选择冻结、插入适配器和微调等候选自适应操作,并在损失函数中添加了一个惩罚项限制学习结构,成功地压缩优化参数至相当于全微调的 8.7% 并获得更好的性能。
Oct, 2023
通过使用 Encoder-Adaptor-Reconfigurator(EAR)框架,本文提出了一种高效的持续学习方法,用于处理领域转移下的非平稳数据分布以及新的数据,该框架利用深度神经网络(DNN)特征编码器和浅层网络进行训练,通过组合 DNN 和超维计算(HDC)检测新数据是否在分布之外,使用零样本神经架构搜索(ZS-NAS)识别低参数神经适配器以适应分布之外的数据,并通过根据需要动态增长神经架构,并通过适当的适配器和重构器来处理领域增量和类增量的持续学习,以最小化对之前任务的灾难性遗忘。通过在几个基准数据集上系统评估我们的方法,并与最先进的 ODD 检测和零样本 NAS 算法进行对比,证明了我们方法的强大性能。
Aug, 2023
通过适配器模块实现神经网络参数共享,避免针对每个任务都需要重新训练整个神经网络的问题。将适配器模块应用于 BERT Transformer 可以达到接近完全微调的性能,同时每个任务只需增加 3.6%的可训练参数,表现十分出色。
Feb, 2019
通过在图像编码器之后或文本编码器之前在预训练的 CLIP 模型上增加附加层,我们提出了一种利用预训练视觉 - 语言模型进行进一步调整的方法,从而使其能够适应新任务而不仅仅是零样本学习。我们对线性适配器、自注意适配器以及修改 CLIP 文本编码器输入的提示调整进行了研究。此外,我们还提出了一种参数保留的方法,通过衡量参数重要性,在增量学习过程中更好地保持稳定性和可塑性。实验证明,最简单的解决方案 —— 一个具有参数保留的线性适配器层,获得了最佳结果。多个常规基准实验一致表明这种方法显著改进了现有技术水平。
Oct, 2023