UniPose: 检测任意关键点
用快速的自下而上的方法,结合图形中心性度量对人类或物体上的 100 多个关键点进行检测,为硬件和人物建模,量化关键点的独立性,将训练权重分配给不同部位的姿势。经实验证明该方法优于以往的所有人体姿势估计方法,而且具有很好的泛化性能。
Oct, 2021
本文提出了 KeypointGAN 方法,通过从未标注的视频和基于弱领域先验知识的学习,仅使用单个图像就可以识别物体的姿态,利用一个新的物体的双重表示方法,并且这种方法可以在不使用标注图像的情况下获得最新的成果。
Jul, 2019
本文介绍了一种半监督的方法,使用少量标记图像和大量未标记图像同时学习关键点热图和姿态不变的关键点表示,关键点表示的语义一致性约束加以保证,并通过特征空间将图像及其扩充副本的关键点表示紧密地联系在一起,以实现对于人类和动物身体特征点的本土化定位,并在多项基准测试中显著优于先前的方法。
Jan, 2021
本文介绍了使用深度学习模型结合 AwA Pose 数据集识别四足动物关键点的研究成果,该数据集涵盖了较多动物种类及关键点数量,可以帮助计算机视觉领域研究构建更准确的模型。
Aug, 2021
该研究提出了一种名为 Click-Pose 的端到端神经交互式关键点检测框架,相比于仅使用手动标注,能够大大降低 2D 关键点注释的标注成本,并探索用户反馈如何与神经关键点检测器合作,在交互方式下更快、更有效地修正预测的关键点。
Aug, 2023
提出了第一个直接的端到端多人姿态估计框架,称为 DirectPose,使用新的关键点对齐机制 (KPAlign),该机制提高了准确性,并消除了需在底部向上方法中处理的启发式分组或在自顶向下方法中进行边界框检测和 RoI 操作。实验证明,这一端到端模式在人体姿态估计任务中可以达到与之前强大基线相媲美或更好的表现。
Nov, 2019
使用图像和语言模型相结合的开放词汇关键点检测方法,通过关联文本提示与相关关键点特征实现任意物种的关键点检测,以实现在零样本情况下超越当前最先进的少样本关键点检测方法,并在 OVKD 上取得了显著的性能改进。
Oct, 2023
提出了 UniPose,一种基于瀑布卷积模块的人体姿势估计统一框架,该模块结合了上下文分割和联合定位,实现了单阶段高精度的人体姿态估计,特别是在视频中取得了最先进的结果。
Jan, 2020
通过利用预训练视觉转换器(ViT)的强大表示能力,我们提出了一种针对灵活的以物体为中心的视觉感知的一次性实例感知对象关键点提取方法(AnyOKP),并可以在学习支持图像后,为任意类别的多个对象实例获得关键点。我们直接部署现成的预训练 ViT 进行通用化和可转移的特征提取,并通过训练无需增强特征。根据外观相似性在支持图像和查询图像中搜索最佳原型对(BPPs),以产生不考虑实例的候选关键点。然后,将包含所有候选关键点的整个图根据图边上的特征分布划分为子图。最后,每个子图代表一个对象实例。AnyOKP 在使用机械臂、移动机器人和外科手术机器人的相机收集的真实物体图像上进行了评估,不仅展示了跨类别的灵活性和实例感知性,还展示了对领域转移和视角变化的显著稳健性。
Sep, 2023