SUVR: 一种基于搜索的无监督视觉表示学习方法
本文提出了一种理论框架以分析对比学习的算法,并引入潜在类别假设,该框架使我们能够在平均分类任务上证明学习表示的性能。同时,该文还表明,学习表示可以降低下游任务的(标记)样本复杂度。
Feb, 2019
该论文提出了一种基于标签空间的无监督学习方法 (Un-Mix),通过混合输入数据进行联合工作,从而学习到更加精细、鲁棒且广义的表示。实验证明,在 CIFAR-10、CIFAR-100、STL-10、Tiny ImageNet 和 ImageNet 等数据集上,该方法均可以在保持基本方法的超参数和训练程序不变的条件下,显著提高模型的泛化性能。
Mar, 2020
提出了一种新的弱监督学习设置,称为 SU 分类,只需要相似数据对和未标记数据点,可以从 SU 数据中获得分类风险的无偏估计量,并证明其经验风险最小化器的估计误差达到最优参数收敛速率。通过实验证明了该方法的有效性。
Feb, 2018
该论文探讨了自我监督方法在无监督视觉表示学习中的重要性,提出之前 CNN 设计的标准配方不一定适用于自我监督表示学习, 并大幅度提高了之前提出技术的性能,超越了之前公布的最先进结果。
Jan, 2019
本文综述了针对可视化识别问题的先进深度学习算法在半监督学习和无监督学习范式下的研究进展,提出了统一的分类方法,并分析了它们在不同学习场景和计算机视觉任务中的设计原理及应用,最后探讨了 SSL 和 UL 中的新趋势和挑战。
Aug, 2022
本文提出 AVSL 框架,用于更精确和可解释地衡量图像之间的相似度,通过基于人类语义相似性认知构建通用相似性学习范式,使用图形以及自下而上的相似性构建和自上而下的相似性推断框架,在语义层次一致性的基础上推断相似性,取得了显著的改进,并验证了框架的可解释性。
Mar, 2022
本文提出了一种利用局部相似性的弱估计,通过单个最优化问题提取具有一致性关系的样本批次,将视觉相似性学习作为分类任务的序列,并使 CNN 巩固群体内和群组间的传递性关系,学习所有样本的单个表示。
Feb, 2018
研究利用未标记的现实数据学习仿真器输出的模型的真实性以改进合成图像以缩小合成和真实图像之间的差距,提出了一种使用合成图像作为输入的对抗网络方法,通过几个关键修改以保护注释信息、避免伪影、稳定训练的方式来学习 Simulated+Unsupervised(S+U)学习,用于眼睛凝视和手部姿势估计的模型表现得到了大幅提升。
Dec, 2016
该研究提出了一种新的零样本学习框架,并基于 Unseen Visual Data Synthesis 算法,利用语义属性有效地合成未见过的视觉特征,以解决实际应用中缺乏带标注样本的问题,并证实其能够显著提高现有技术水平。
May, 2017