自监督预训练对视觉任务有多大用处?
本文比较了三种自监督预训练模型和一个有监督的基线模型,在五个数据集上进行了皮肤病变的诊断。结果表明,自监督预训练模型可以在提高准确性和降低结果的变异性方面与有监督的基线模型相媲美,尤其在数据量少的情况下表现更加稳定和优秀。
Jun, 2021
本文提出了用于视频领域的自监督学习基准,并对数据集大小、数据分布、数据噪声、自监督预训练架构相关的五个不同方面进行了观察分析,同时提出一种新方法,不需要过多的训练数据,即可超越现有自监督预训练的先进水平。
Jun, 2023
本文探讨了在医学图像分割中监督学习与自监督学习的预训练方法,发现在自监督学习方法中,使用自然图像和目标领域特定图像进行预训练可以实现最快和最稳定的收敛,在低数据场景下,将图像分类网络预训练在 ImageNet 上可以获得最佳精度。
Sep, 2022
本论文综述了自监督预训练技术及其在序列迁移学习框架中的应用,包括自监督学习和迁移学习的分类体系、设计跨不同领域的预训练任务的突出方法以及近期趋势和未来研究方向。
Jul, 2020
本文探讨了 13 种自监督学习模型对 40 个下游任务的传输性能,发现自监督学习在多数任务上的表现均优于监督学习,但仍需解决通用预训练的问题。探究特征表明,自监督学习方法在保留颜色信息方面不如监督学习方法,但分类器校准和过度拟合问题相对较少。
Nov, 2020
自监督预训练在医学图像诊断任务中通过改善特征表示进而提高了下游任务性能,尤其是在无标注样本数量远远超过有标注样本数量时。该综述总结了近期在 X 射线、计算机断层扫描、磁共振和超声成像领域中应用自监督预训练与全监督学习相比较的研究,最重要的发现是自监督预训练普遍提高了诊断任务的性能。基于综合证据,为考虑使用自监督学习的实践者提供了相关的建议,同时针对当前研究中存在的局限性,提出了未来研究的方向与实践,如将临床知识与理论基础的自监督学习方法结合、在公共数据集上进行评估、扩展对超声成像领域的研究证据,以及表征自监督预训练对泛化性能的影响。
Sep, 2023
本文研究了自监督学习在四个不同的大规模数据集上的对比学习方法,通过数据量、数据领域、数据质量和任务粒度,得出了有关成功自监督学习所需条件的新见解,其中包括:(i) 除 500k 张图像外,额外的预训练数据的收益有限;(ii) 添加来自另一个领域的预训练图像不会产生更通用的表示。(iii) 比较学习在细粒度的视觉分类任务中远远落后于监督学习。
May, 2021
该论文提出了一种名为 LOOK 的基于留一法 K 最近邻(Leave-One-Out K-Nearest-Neighbor)的监督预训练方法,它通过让每个图像只与其 k 个最近邻居共享其类标签,从而允许每个类展现出多模式分布,从而更好地转移至下游任务,并在多个下游任务上的实验研究表明,LOOK 优于其他监督和自监督预训练方法。
Oct, 2021
本研究以自监督训练为探讨重点,以自动上色作为代理任务取代了 ImageNet 预训练,并在多个任务上评估了模型的性能,结果表明自监督训练比传统的无监督学习方法更具前途,同时进一步探讨了 ImageNet 的预训练范式,通过上色的自我监督提供了与 ImageNet 相似的监督信号
Mar, 2017