比较了 16 种分类网络在 12 个图像分类数据集上的性能表现,发现在使用网络作为固定特征提取器或微调时,ImageNet 准确度与转移学习准确度之间存在强烈的相关性,但是在微调时,ImageNet 的泛化能力较弱,获得了更差的特征。
May, 2018
本文系统地研究了训练数据变化对深度图像特征的质量和通用性的影响,并提出了关键实用问题,如在固定注释预算情况下,每类图像数量和类别数量之间的最佳权衡
Jul, 2020
通过利用预训练深度模型进行微调,从而实现多种视觉任务的最佳性能表现,本文研究了许多影响目标检测微调性能的因素,提出了基于视觉相似类群的分层特征学习方案,在不增加测试阶段的计算成本下,本方法在 ImageNet 目标检测数据集上获得了 4.7% 的绝对 mAP 改进。
Jan, 2016
本文探讨了利用大规模社交媒体图像预测 hashtag 的卷积神经网络进行的迁移学习的行为,并展示了相应的实验结果,证明进行大规模预训练能够显著提高图片分类和物体检测任务的表现。
文章分析了卷积神经网络在物体检测任务上的预训练方法对小规模数据集的图像分类、语义分割和物体检测等任务的影响,并得出了四个关键结论。
Apr, 2019
该研究试图从泛化、优化和可转移性的角度理解神经网络的迁移能力,发现模型的可转移性与目标数据集的相似度、训练阶段以及转移参数的一些特性相关,包括使损失函数更加有利,加快和稳定训练过程。
Sep, 2019
比较了不同的预训练神经网络在图像分类任务中的特征提取性能,结果表明 CLIP-ViT-B 和 ViT-H-14 模型在多个数据集上取得了最好的表现,CLIP-ResNet50 模型表现类似但变异性较小。因此,我们的研究证明了在图像分类任务中选择模型进行特征提取的合理性。
Oct, 2023
本论文研究了深度神经网络中神经元的广泛性与特定性,发现转移特征会受到特化高层神经元和合作适应神经元之间优化困难性的限制,转移特征的适用性随着目标任务与基础任务的差距而降低,但即使从远任务中转移特征,也比使用随机特征好,从几乎任意数量的层中初始化网络都可以提高广义化的效果,即使经过微调后能够持续。
Nov, 2014
提出了用于计算机视觉任务的预训练神经网络的有效过滤方法,包括图像分辨率下采样和数据子集筛选,验证结果表明这种方法明显降低了训练成本并提高了性能。
Nov, 2020
本文研究了来自十六个不同的预训练 ImageNet 模型的特征对于迁移学习领域适应问题的影响,并找到了最佳的特征提取层,实验表明,精度较高的 ImageNet 模型产生的特征能够更好地适应领域迁移问题并取得更高的精度,其表现超过了三个基准数据集中的最优算法。
Feb, 2020