使用姿态引导的二阶段聚类进行无监督地标发现的自训练
利用弱监督对比学习的语义引导自监督学习模型,在基于自我监督模型 DINO 的特征编码器上微调,采用主成分分析(PCA)来定位物体区域,实验证明了该解决方案的有效性。
Jul, 2023
本文介绍了一种 LEAD 方法,用于从未注释的类别特定图像集合中发现地标。通过采用两阶段训练方法,该方法增强了自监督学习中密集等变表示的学习,并在极度有限的注释数下提高了地标检测的性能,同时提高了跨尺度变化的泛化能力。
Apr, 2022
本文提出了一种使用深度神经网络在无监督条件下发现和学习物体类别中的标志的新方法,从而表征它们的结构。我们还展示了这种学习出的标志建立了不同对象实例之间的有意义的对应关系,并可以与高精度回归手动注释的标志。
May, 2017
我们引入了一种扩散驱动的自监督网络,用于多目标形状重建和分类姿态估计,并且仅利用形状先验信息,通过点卷积层和图卷积层来捕捉姿态特征和形状信息,通过预训练和精炼的自监督训练范式训练我们的网络。实验证明,我们的方法明显优于最先进的自监督分类级别基准,并且甚至超过一些全监督实例级别和分类级别方法。
Mar, 2024
利用空间几何对齐和时间运动对齐构建自适应域归一化方法,以头显和机械扫描激光雷达的点云数据为例,实现了跨设备 3D 检测的最新性能水平。
Dec, 2022
本研究提出了两种技术来改善局部标记数据集中的地标定位。第一种技术是顺序多任务,利用分类或回归任务的类标签引导未标记数据的局部标记定位。第二种是基于无监督学习的方法,通过模型预测图片上的等变地标来提高地标定位,本文在两个玩具数据集和四个实际数据集上进行实验,包括手和脸部, 并在只有 5%标记图像的条件下,跑过了之前在 AFLW 数据集上的最新 state-of-the-art 算法。
Sep, 2017
本文通过在目标空间的离散化锚点类别的粗分类的全局特征对齐和局部细化来弥合合成数据和实际数据之间视觉回归(例如六维姿态估计)中的领域差距,使其对领域不变表示学习施加了分段目标流形正则化。此外,本方法还将统一的隐式神经函数学习应用于估计目标相对方向和距离的回归任务中,以改善目标分类预测,实验表明,在三个公开基准测试中,本文方法在相对于最先进的 UDA 6D 姿势估计方法表现出了卓越的性能。
May, 2023
本文提出一种基于自动编码器的方法,无需监督信号,从而学习图像模型中的对象结构,发现了与手动注释地标更为相关的语义有意义的地标,这些地标是识别视觉属性的补充特征,并且自然地创建了一个无监督、可感知的界面,用于操纵对象形状和解码具有可控结构的图像。
Apr, 2018
我们提出了一种基于无监督领域自适应的解剖标志点检测新框架,利用自我训练和领域对抗学习来处理适应过程中的领域差异,通过选择可靠的动态阈值标签进行目标领域数据的自适应,以及通过对抗训练学习领域不变特征来处理两个领域的不对齐数据分布,实验证明该方法在头影测量和肺标志点检测方面有效,显著减小了领域差距并且持续优于其他无监督领域自适应方法。
Aug, 2023
提出了一种新的针对大规模数据集的无监督目标探索(UOD)形式化的排名问题方法,该方法可应用于特征自我学习,并结合各种分布式方法和链接分析,实现了完全无监督的 UOD 流程,在单目标和多目标探索方面表现良好。
Jun, 2021