本文介绍自监督学习作为深度学习替代方案的优势及其在计算机视觉、自然语言处理和图学习中的应用,分类总结了现有的自监督学习方法,并进一步探讨其相关的理论分析工作,最后简要讨论了自监督学习的未来方向和开放性问题.
Jun, 2020
本文研究了自监督学习在四个不同的大规模数据集上的对比学习方法,通过数据量、数据领域、数据质量和任务粒度,得出了有关成功自监督学习所需条件的新见解,其中包括:(i) 除 500k 张图像外,额外的预训练数据的收益有限;(ii) 添加来自另一个领域的预训练图像不会产生更通用的表示。(iii) 比较学习在细粒度的视觉分类任务中远远落后于监督学习。
May, 2021
本研究对自监督学习中采用对比学习方法的常见预训练任务及各种方法进行了广泛的回顾,并通过图像分类,目标检测和动作识别等多个下游任务的性能比较,探讨了当前方法的限制以及未来发展方向。
Oct, 2020
介绍了自监督学习的基本概念、方法和应用,探讨了自监督学习在不同数据模态下的表现,包括图像、视频、音频和文本,并讨论了其实用性和存在的问题。
Oct, 2021
本文针对多视图环境下对比学习进行理论分析,结果表明当视图提供有关标签的冗余信息时,所学习的表示的线性函数在下游预测任务中几乎是最优的。
Aug, 2020
对比对神经表示的最新技术,研究了对比自我监督算法和简单图像数据在共同架构中的监督学习方法的中间表示的学习,发现这些方法通过不同的方法学习相似的中间表示,但在最后几层中表示迅速发散,旨在突出学习的中间表示的重要性,并提出了辅助任务设计的关键问题。
本研究提出一种新的辅助任务 —— 旋转预测,用于加强现有最先进的基于相似性和对比性方法,并在多个数据集上证明了我们的方法能显着提高性能。
Oct, 2022
该论文探讨了自我监督方法在无监督视觉表示学习中的重要性,提出之前 CNN 设计的标准配方不一定适用于自我监督表示学习, 并大幅度提高了之前提出技术的性能,超越了之前公布的最先进结果。
Jan, 2019
本研究针对自监督学习提供了首个理论分析,其中包括来自模型类祖产的归纳偏差的影响。我们特别关注对比学习 - 一种在视觉领域广泛使用的自监督学习方法。我们发现,当模型具有有限的容量时,对比表示将恢复与模型结构兼容的某些特殊聚类结构,但忽略数据分布中的许多其他聚类结构,从而捕捉了更加现实的情景。我们将理论实例化为几个合成数据分布,并提供实证证据来支持该理论。
Nov, 2022
无监督学习下的意义化特征表示方法综述及实验结果分析。
Aug, 2023