关键词unsupervised visual representation learning
搜索结果 - 8
- ICLR生成数据是否总是有助于对比学习?
逆变学习作为无监督视觉表示学习中最成功的方法之一,依赖于大量的手动数据增强。然而,本文研究发现由扩散模型生成的数据有时会对对比学习产生负面影响,并提出了一种数据为中心的策略,即自适应扩增 (AdaInf),无需额外的计算成本,可在各种对比学 - 用于强化学习的无监督表示轻量级探测
本文提出了使用线性探测任务评估强化学习中视觉预训练算法效果的方法,通过与实际下游控制表现的相关性进行实验,优化了现有自监督学习配方的方法,突出了前向模型、视觉主干大小和无监督目标的重要性。
- 文本摘要的序列级对比学习
本文提出了一种对比学习模型,用于文本摘要的有监督抽象,通过将文档、其黄金摘要和模型生成的摘要视为同一平均表示的不同视图,并在训练过程中最大化它们之间的相似性,从而改进了强序列到序列的文本生成模型(即 BART)。人类评估也显示,我们的模型与 - IJCAI残差对比学习用于图像重建:从噪声图像中学习可迁移的表征
本文提出了一种基于残差的对比度学习(residual contrastive learning,RCL)的无监督视觉表示学习框架,用于低层次视觉任务,减少了现有对比度学习框架中存在的实例鉴别前提任务和下游图像重建任务之间的任务不匹配问题。实 - AAAI为无监督视觉表示学习训练一百万类别的实例分类器
该研究提出了一种简单的无监督视觉表示学习方法,使用参数化的实例级分类器来区分数据集中的所有图像作为前提任务。这种方法解决了大规模训练的困难,并提供了一种相似度先验,以在多个视觉任务中实现了竞争性的性能表现。
- 语义标签能帮助自监督视觉表征学习吗?
本文提出了一种名为 SCAN 的新算法,该算法通过最大限度地防止语义指导损坏外观特征嵌入,有效的融合了有监督和自监督学习方法,取得了比以往的有监督和自监督方法更好的性能,并揭示了语义标签在辅助自监督方法中的作用。
- CO2: 无监督视觉表征学习的一致性对比
该研究提出了一种新的无监督对比学习框架 CO2,它利用了模仿半监督学习中的一致性正则化来处理标签分配策略的瓶颈问题,能够提高图像分类、目标检测和语义分割等任务的视觉表示能力。
- ECCV深度表示学习的无监督图像分类
本研究提出了一种无监督图像分类框架,旨在通过不使用嵌入聚类来简化和优化深度聚类算法,并在 ImageNet 数据集上进行了实验。同时验证了其在多标签图像分类,目标检测,语义分割等任务的泛化性,以及其在迁移学习中的有效性。