自监督孪生自编码器
本论文提出了一种利用自我监督任务作为辅助损失函数来改善小型标注数据集上深度表示可迁移性的技术,其中使用自监督损失学习的表示减少了元学习的相对误差率,此方法在各种学习任务中都取得了良好的表现。
Jun, 2019
本文介绍自监督学习作为深度学习替代方案的优势及其在计算机视觉、自然语言处理和图学习中的应用,分类总结了现有的自监督学习方法,并进一步探讨其相关的理论分析工作,最后简要讨论了自监督学习的未来方向和开放性问题.
Jun, 2020
该研究提出了一种将自监督学习的不同方法统一在同一框架下进行比较的方法,并通过 UniGrad 提出了一种简单有效的自监督学习的梯度形式,其在线性评估和下游任务中表现出了卓越的效果。
Dec, 2021
本研究探讨了只利用目标任务数据的自监督预训练方法,结果显示与ImageNet预训练相比,使用我们介绍的变种BEiT的降噪自编码器方法更适合于类型和数据大小各不相同的预训练数据,这种方法在使用COCO数据进行预训练时,检测和实例分割性能超过了监督的ImageNet预训练方法。
Dec, 2021
提出了一种自监督学习框架——Masked Siamese Networks (MSN),用于学习图像表示。通过将随机遮罩块的图像视图的表征与原始未遮罩图像的表征进行匹配,可以进行自监督预训练,该策略特别适用于Vision Transformer模型,在提高联合嵌入结构的可扩展性的同时,产生高语义级别的表示,并在低样本图像分类方面表现竞争性,对ImageNet-1K数据集上,使用基础MSN模型以仅有5000个带注释的图像,达到了72.4%的top-1准确度,并且只有1%的ImageNet-1K标签,就取得了75.7%的top-1准确度,创立了该基准测试的自监督学习的新的最佳成果。
Apr, 2022
本文研究掩蔽 Siamese 网络在卷积神经网络下的问题,并提出多个经验设计来逐渐解决这些问题。该方法在低样本图像分类上表现有竞争力,并在目标检测基准测试中优于以前的方法。
Jun, 2022
本研究提出了一种简单而有效的对比学习框架来解决Contrastive Self-supervised Learning (CSL)中样本不足问题,将同一个输入的不同视角拉近,不同输入的视角推远,提高了视觉表征的质量,并在ImageNet-1K数据集上表现出了超越完全监督训练版本的性能。
Aug, 2022
CropMAE是一种替代SiamMAE的Siamese预训练方法,通过仅考虑从同一图像裁剪而来的图像对,而不是从视频中提取的帧对,从而减少了对视频数据集的需求,同时保持了竞争性能,并大幅减少了预训练时间。此外,CropMAE证明了它能够学习类似的物体中心化表示,而不需要明确的运动,这表明当前的自监督学习方法并不是从运动中学习对象,而是依赖于Siamese架构。最后,CropMAE实现了迄今最高的遮挡比例(98.5%),仅使用两个可见的补丁就能重建图像。
Mar, 2024