本文探讨迁移学习下的分布漂移问题,提出一种被称为外科手术微调的神经网络微调方法,用于适应数据分布迁移,经实验证明在实际任务中表现优异,特别是在处理图像时,只微调前几层会更有效。
Oct, 2022
本文提出了一种自适应微调方法 SpotTune,使用策略网络根据目标任务的数据实例来选择微调层或预训练层,实验证明该方法在计算机视觉中的迁移学习应用中优于传统的微调方法,并在 Visual Decathlon 数据集中表现优异。
Nov, 2018
本论文提出了一种源目标选择性联合微调方案,通过识别和使用一组特定的训练样本以及联合微调共享卷积层来改善深度学习任务的性能,该方案在多个视觉分类任务中以单一模型获得了最先进的性能。
Feb, 2017
通过 fine-tuning 算法的正则化与 self-labeling 方法相互插值,从而提高在小数据集下的图像与文本分类表现。
Nov, 2021
局部微调可以同时提高效率和准确性,选取适合的层对局部微调至关重要。通过引入新的微调角度度量,可以灵活适应各种场景用于更实用的局部微调,同时提高模型性能和泛化能力,减少微调参数。实验证明了局部微调的巨大潜力。
Dec, 2023
通过概念微调(Concept-Tuning)方法,可以改善预训练模型的特征表示,减少罕见特征和虚假关联特征的负面影响,进而提高细调方法在各种数据集上的表现。
Nov, 2023
本文研究在归纳迁移学习中,fine-tuning 方式相较于从头训练卷积神经网络具有更好的表现。为了提高 fine-tuned 模型在目标任务上的泛化性能,本文探究了多种正则化方法,最终推荐采用 $L^2$ 惩罚并将预训练模型作为基准的方法作为迁移学习任务的 baseline。
Feb, 2018
本文研究了如何有效地在联邦学习中使用预训练 Transformer 模型及其微调方法,实验结果表明,微调模型的偏置项是最好的策略,并且使用视觉 - 语言模型会比纯视觉模型的性能更好,且能提高模型精度并减少过拟合问题。
Nov, 2022
本文提出了一种针对 few-shot learning 中使用的分类器训练,通过在基础模型中冻结或微调特定层以转移部分知识来提高性能,并引入基于进化搜索的方法以自动化此选择过程,以得到在 CUB 和 mini-ImageNet 中具有最先进表现的该方法。
Feb, 2021
提出了一种基于迁移学习的网络微调方法 NetTailor,它使用预训练的 CNN 层作为通用模块,可以与小的任务特定层组合生成新的网络,通过软注意力机制和复杂度正则化约束,最小化分类错误的同时降低网络复杂度。该方法可以使得适应简单任务的网络结构比适应复杂任务的网络结构更小,并且不降低参数共享和分类精度。
Jun, 2019