通过对比集合学习面向对象的视频模型
本文介绍了一种无监督抽取物体的方法,在机器学习中具有重要意义。该方法不使用标签,通过利用物体的运动来学习区分每个对象,并使用新的量化评估指标,在 20 个 Atari 游戏中对其性能进行评估。
Jul, 2020
本文研究了利用自监督学习获取对象集中表示的关键方面,并在 CLEVR 数据集上运行了一些实验来验证我们的见解。我们的结果表明,竞争式注意力对象发现对于学习对象集中表示非常重要。对于训练,我们证明了在潜在空间中应用具有匹配性的对比损失,避免了基于像素的重建。但是,该优化目标对假阴性(重复对象)和假阳性(匹配错误)非常敏感。因此,需要仔细考虑数据增强和负样本选择。
Mar, 2022
本文探讨了从无标签场景中心数据中学习视觉表示的问题,提出了一种的基于对比学习和数据驱动语义槽的语义聚类和表示学习方法,通过此方法能够更好的区分特征和语义相符的像素点,以此来有效地分解场景中的像素群组,并显著提高目标检测、实例分割和语义分割等下游应用的效果。
May, 2022
该研究提出了一种基于段落的视频级对比学习方法,它使用全局上下文形成正样本,同时还结合了一个时间顺序正则化项来确保视频的时序结构,实验证明该方法在动作分类、动作定位和视频检索等任务上能够超越现有的最先进方法。
Aug, 2021
我们提出了一种新颖的针对物体感知的对比自我监督学习框架,通过首先局部化自我监督学习中的对象,然后通过考虑推断出的对象位置的适当数据增强来去偏置场景相关性,进而提高表示学习框架的有效性。
Jul, 2021
本文发现在连续学习的情境中,通过对比学习方法学习到的表示对抗遗忘更加鲁棒,基于该观察,我们提出了一种基于重复学习的算法,该算法着重于持续学习和维护可转移的表示,并在常见的基准图像分类数据集上进行了广泛实验验证,该方法取得了最新的最佳性能。
Jun, 2021
该研究对现有的物体中心模型的概念限制进行了识别和分析,提出了一种基于复值激活和对比学习的改进同步模型。通过引入新的构架和方法,该同步模型可以在多物体彩色数据集中无监督地发现物体,并同时表示超过三个物体。
May, 2023