本文提出了一种全新的完全无监督语义分割方法,名为 InMARS,以信息最大化和对抗性正则化分割为基础,并结合对抗性训练策略,通过像人类感知一样先将输入图像分区,然后将其聚类为语义上有意义的类别,其实验结果表明在两个常用的无监督语义分割数据集上,InMARS 方法取得了最先进的性能。
Jul, 2021
本文提出了一种基于自监督学习的无监督语义图像分割的新方法,通过局部和全局高级别图像特征间的互信息最大化计算多个高级别特征,实现对不同语义类别的图像分割和互信息最大化的两阶段学习过程,并在已有数据集和引入的 COCO-Persons 数据集上相对推进了 26%(基于像素准确率评估)。
Oct, 2021
该研究从信息论的角度研究了图像分割,并提出了一种新的敌对方法,通过将图像划分成最大独立集合来执行无监督分割,实验结果表明其在无监督分割质量方面达到了新的最优状态,并且比现有的方法更快、更通用。
Dec, 2020
使用 LMConv 实现了生成模型的任意序列生成,可以用于图像完成等任务,在整体图像密度估计(2.89 bdp 无条件 CIFAR10)方面取得了改进的性能,同时实现了全局连贯图像完成。
Jun, 2020
该研究提出了一种基于最大化共享环境的多视角特征提取之间的互信息来进行自我监督表示学习的方法,并通过使用该方法建立一个模型,该模型学习到的图像表示在 ImageNet 等任务上的表现优于以前的方法。
Jun, 2019
自主训练自回归模型在计算机视觉中的发展滞后于自然语言处理,本研究提出了一种基于语义感知的自回归图像建模方法,通过对补丁的特征相似性进行排序,将自回归建模从语义补丁扩展到非语义补丁,并探索了使用补丁特征作为预测目标的方法,实验表明该方法在图像分类、目标检测和分割等多个任务中实现了卓越的性能表现。
Dec, 2023
基于表示距离的互信息最大化方法用于量化不同视图的重要性,进而实现更高效的对比学习和表示解耦。通过在频率域提取多视图表示,并基于不同频率之间的互信息重新评估其重要性,本文提出的框架能够有效约束互信息最大化驱动的表示选择,推动多视图对比学习。
Feb, 2024
提出了一种基于决策的掩蔽图像模型(drawing-based mask image model, MIM)方法,利用强化学习自动搜索最佳图像掩蔽比例和掩蔽策略,并通过多主体协作捕捉体素间的依赖关系,从而在神经元分割任务上显著优于其他自我监督方法。
Oct, 2023
本文提出了一种基于生成对抗网络的方法,以隐式关键点作为上下文条件,生成与引导图像细分任务对应的掩模图像。该方法不仅不需要对数据进行标注,而且还可以提高系统对视角和目标位置变化的容忍度。通过生成图像 - 掩模对,本文所提出的方案在公认的基准测试上优于现有的无监督分割方法。
Dec, 2021
本文提出了一种基于信息瓶颈原理的半监督学习方法,用于学习图像注意力掩模。该方法使用标记的图像生成掩模,并最大化被掩蔽图像与图像标签之间的互信息,同时最小化输入和被掩蔽图像之间的互信息,所得到的注意力蒙版为布尔值类型。在 MNIST,CIFAR10 和 SVHN 等数据集上的实验结果表明,我们的方法可以成功地将注意力集中在定义图像类别的特征上。
Jul, 2019