DisCont:使用上下文向量实现自监督视觉属性解缕
自我监督表示学习经常使用数据增强来诱导对数据的 “风格” 属性的某种不变性。然而,由于在训练时通常不知道下游任务,很难事先推断哪些属性实际上是 “风格”,并且可以安全地丢弃。为了解决这个问题,我们引入了一种更有原则性的方法,旨在解开 “风格” 特征而不是丢弃它们。关键思想是添加多个风格嵌入空间,其中:(i)每个空间对除一个增强操作外都不变;(ii)联合熵被最大化。我们从因果潜变量模型的角度形式化了我们的结构化数据增强过程,并证明了内容和(多个模块的)风格变量的可辨识性。我们在合成数据集上通过实验证明了我们方法的好处,然后在 ImageNet 上展示了有限但有希望的结果。
Nov, 2023
利用半监督对比学习方法,我们提出一种新的方法来实现属性的稳健控制,并增强内容的保留。通过重新解缠重构的句子并将其与原始潜变空间进行比较,我们实现了一个闭环解缠过程,进一步帮助内容保留。与以往方法不同,对比学习方法能够代替最小化互信息和对抗训练在解缠过程中的作用,从而减少计算成本。我们在三个文本数据集上进行了实验证明了我们模型的有效性。
Dec, 2023
我们开发了一种名为 DualContrast 的新型自监督方法,专门用于解决与形状相关的图像数据集中的内容和变换的无监督分离问题。我们的广泛实验证明了 DualContrast 相对于现有的自监督和显式参数化方法的优越性。我们利用 DualContrast 在细胞 3D 蛋白质图像中分离了蛋白质的身份和构象,以及在 MNIST、Linemod Object 数据集中的视角以及在 Starmen 数据集中的人体运动变形作为变换。
May, 2024
本研究针对目标属性识别的组合式零样本学习问题,提出了一种新颖的体系结构,用于在视觉空间中区分属性和对象特征并使用视觉分解特征产生代表性的嵌入,旨在更好地正则化模型的学习,实验结果表明我们的方法在 MIT-States,UT-Zappos 和基于 VAW 的新基准上的性能显著优于现有工作。
May, 2022
本文提出一种名为 OverLORD 的单一框架,用于解缠标记和未标记的属性,以及合成高保真度图像,并通过潜在的优化实现分离学习,该方法不依赖对抗性训练或任何结构偏差,并在生成更具感知品质的图片中具有显着更好的解离和更高的输出多样性.
Mar, 2021
本文提出了一种不依赖于手动标注或数据领域知识的学习图像表示的方法,其实现了图像属性解离因素,其中每个因素代表一个一致的图像属性,这种解离后的特征可以应用于多种领域,例如将特定属性从一个图像转移到另一个图像、基于一个或多个属性进行分类或检索。这种方法中的自动编码器架构包括两个新的训练目标:不变性目标和分类目标,以确保每个特征块的编码对于其他属性是固定不变的,同时对于一致可辨的属性,避免出现完全被忽略的特征映射。实验验证了该方法在 MNIST、Sprites 和 CelebA 数据集上的有效性。
Nov, 2017
本文提出了一种基于无监督学习、从神经科学中获得灵感的方法,利用变分自编码器对图像数据进行学习,从而获得解耦表示。该方法可以使神经科学的研究成果得以应用到实际中,同时还有零样本推理和直观理解的优点。
Jun, 2016
本文介绍了一种自我监督学习的方法,用于提取图像的特征向量,并将其组合用于图像搜索引擎的检索算法中。这种方法能有效地减少特征重叠,提高查询的精确性。
Feb, 2023