学习视觉符号以解析图像中的人体姿态
本文提出一种利用人体关键点注释的方法生成合成数据,并利用这些数据进行半监督学习,进而提高人体语义部分分割准确率。在 PASCAL-Person-Part 数据集上,我们的方法优于强监督模型 6 mIOU,达到了最先进的人体分割结果。
May, 2018
本篇文章介绍了一个名为 “Look into Person (LIP)” 的新的数据集,该数据集包含 50,000 多张具有 19 个语义部件标签的图像,是一个可扩展性、多样性和难度方面的重大进展,并且使用自监督学习方法解决了人体解析的问题。
Mar, 2017
本文提出了一种基于 segment-based parsing 管道的方法,利用人体姿势信息对人体进行语义区域划分,从而提高了部分提案的准确率,加速了推理并使得解析过程更规则化,经实验证明该方法相比现有技术具有更好的优越性能。
Aug, 2015
本文提出了一种在艺术历史图像中估计人类姿势的新方法,通过半监督学习对目标和关键点检测进行了改进,并且引入了一个包括人体姿势标注的新领域特定艺术数据集,相对于使用预训练模型或风格转移的方法,达到了显著更好的结果。
Jul, 2022
通过无监督学习方法,该研究利用已知物体姿态和形状参数,学习表示关节姿势的具体特征,并仅需要第二视角监督,在联合有标记和无标记数据的条件下,显著提高了关节姿势估计的性能。
Apr, 2018
本文提出使用多视角图像而无需注释,来学习一个具有几何感知能力的身体表示,通过使用该身体表示,我们的方法在仅使用少量标记数据的情况下,显著优于完全监督的方法,并且在使用仅 1% 标记数据时,也优于其他半监督方法。
Apr, 2018
本论文提出了一种新的底部向上体系结构,以联合学习类别级人类语义分割和多人姿态估计来解决实例感知的人体部位解析的挑战任务。该框架利用不同人类细粒度上的结构信息,使人员分区的难度降低。通过将联合关联建模为最大权二分匹配,实现了可微分的解决方案,从而使我们的方法具有端到端的可训练性,并且允许将分组误差直接传播到多层次的人类表征学习中。
Mar, 2021
这篇论文研究了一项名为统一感知分析的新任务,通过开发 UPerNet 多任务框架和一种训练策略来实现从给定图像中识别尽可能多的视觉概念,最后在自然场景中应用训练网络来发现视觉知识。
Jul, 2018