密集视觉表示的无监督学习
本文介绍了一种使用大量未标记数据进行无监督学习的方法,通过使用数十万个未标记的web视频作为数据集,设计了一个具有排名损失函数的Siamese-Triplet网络,用于深度卷积神经网络的无监督学习,可在不使用ImageNet的情况下,获得52%的mAP的性能,并展示了此非监督网络在其它任务中表现出竞争性。
May, 2015
本文研究了不同的自编码器架构和训练策略,以从图像中学习表征,研究了网络深度和容量对降维和泛化能力的影响,结果表明自编码器特征的分类结果与预训练卷积神经网络一样有辨别能力。以上发现可用于设计跨领域的无监督表征学习方法。
Nov, 2018
该论文探讨了自我监督方法在无监督视觉表示学习中的重要性,提出之前CNN设计的标准配方不一定适用于自我监督表示学习, 并大幅度提高了之前提出技术的性能,超越了之前公布的最先进结果。
Jan, 2019
SimCLR是一种简单的对比学习框架,通过定义有效的预测任务、引入可学习的非线性变换以及使用大型批次和更多的训练步骤来提高对比学习的效果,在ImageNet数据集上实现了比以往方法更好的自监督和半监督学习结果。
Feb, 2020
该论文提出了一种基于标签空间的无监督学习方法(Un-Mix),通过混合输入数据进行联合工作,从而学习到更加精细、鲁棒且广义的表示。实验证明,在CIFAR-10、CIFAR-100、STL-10、Tiny ImageNet和ImageNet等数据集上,该方法均可以在保持基本方法的超参数和训练程序不变的条件下,显著提高模型的泛化性能。
Mar, 2020
本文提出了一种密集的语义对比学习框架,用于多颗粒度表示学习,以模拟语义类别决策边界以满足下游的密集预测任务,实验证明我们的模型优于现有的方法,包括目标检测、语义分割和实例分割。
Sep, 2021
对比对神经表示的最新技术,研究了对比自我监督算法和简单图像数据在共同架构中的监督学习方法的中间表示的学习,发现这些方法通过不同的方法学习相似的中间表示,但在最后几层中表示迅速发散,旨在突出学习的中间表示的重要性,并提出了辅助任务设计的关键问题。
Oct, 2021
本论文提出了Dense Siamese Network(DenseSiam),这是一种针对密集预测任务的简单的无监督学习框架,通过最大化图像两个视图之间的相似性(包括像素和区域一致性),学习视觉特征表示,并证明了其在图像分类和语义分割任务中的有效性。
Mar, 2022