该研究试图从泛化、优化和可转移性的角度理解神经网络的迁移能力,发现模型的可转移性与目标数据集的相似度、训练阶段以及转移参数的一些特性相关,包括使损失函数更加有利,加快和稳定训练过程。
Sep, 2019
该研究论文探究了通过可视化网络内部表征和量化学习过程中引入的变化(包括特征空间、参数空间和最大激活图像集合的度量)的方式来理解神经网络在艺术图像上所学习的内容,同时展示了一种双重微调策略可以提高较小数据集上的艺术图像分类性能。
Nov, 2020
本文研究在归纳迁移学习中,fine-tuning 方式相较于从头训练卷积神经网络具有更好的表现。为了提高 fine-tuned 模型在目标任务上的泛化性能,本文探究了多种正则化方法,最终推荐采用 $L^2$ 惩罚并将预训练模型作为基准的方法作为迁移学习任务的 baseline。
Feb, 2018
通过对块状图像的转换,本文分析了迁移学习的不同作用,提供了新的工具和分析方法,并阐述了模型在相同损失空间下的相似之处。
Aug, 2020
本文通过研究发现,针对新领域的迁移学习中,对于只有有限数据的情况下,通过对抗训练的模型相对于非对抗训练的模型具有更好的迁移性能。同时,对抗训练可以使学习到的表示偏向于保留形状而不是纹理,这影响了源模型的可迁移性,并且使用影响函数的方法发现迁移的对抗训练模型包含更多的人类可识别的语义信息,这至少部分解释了为什么对抗训练模型更实用。
Jul, 2020
通过分析任务头的选择对特征适应的控制,进而影响下游性能,我们发现精细调节一开始的训练准确度和损失,在初始能量的变化对精调后特征的效果有重大影响,最终证明高能量会增加特征的欧几里得和余弦距离,但点积(和精调后特征的范数)会先增加后下降,并提出了一些实际原则来提高下游性能。
Feb, 2023
研究了预训练模型在给定目标任务中的最佳适应方式,着重探讨了 fine-tuning 和 feature extraction 两种常见的适应形式的相对性能,并提出了一组适用于 NLP 应用者的模型调整指南。
Mar, 2019
本文探讨了在图像分类任务中使用多种损失函数和正则化器去提高测试精度,但是并不清楚这些损失函数是否可以学习出更好的下游任务表示。作者研究了训练目标的选择如何影响在 ImageNet 上训练的卷积神经网络的隐藏表示的可转移性,结果表明选择不同的损失函数会导致不同的结果,进一步指出了在为原始任务学习不变特征和为转移任务学习相关特征之间存在一种折衷。
Oct, 2020
研究表明,在预先训练的神经网络中,一个给定层中的许多神经元之间存在一定程度的冗余,因此可能不需要整个层来执行下游任务,这为提高下游任务的效率和减少数据成本提供了可能。
May, 2023
本文研究卷积神经网络的迁移学习,在多个视觉识别任务上通过优化训练参数和特征提取参数达到了显著提高。同时提出了根据任务与源任务的距离将视觉识别任务进行分类的方法。
Jun, 2014