基于人体关键点的视角估计引导方法
该研究提出了一种名为 Click-Pose 的端到端神经交互式关键点检测框架,相比于仅使用手动标注,能够大大降低 2D 关键点注释的标注成本,并探索用户反馈如何与神经关键点检测器合作,在交互方式下更快、更有效地修正预测的关键点。
Aug, 2023
本文提出了一个能够联合解决检测、分类和视角估计问题的 CNN 结构,并将新类型的数据添加到训练中,在加入几何与新类型数据的情况下提出了一种新颖的损失函数。通过这些方法,网络的性能得到提高,将该问题的最新成果提高了 9.8%。
Jul, 2018
提出了一种视角不变的模型,用于从单个深度图像中估计 3D 人体姿态,该模型从一个学习的视角不变特征空间中嵌入局部区域来实现,并采用自下而上的误差反馈机制进行姿态估计,多任务的学习方法可以在噪声和遮挡的情况下选择性地预测局部姿态。通过对一个先前发布的深度数据集和一个包含 10 万个注释深度图像的新收集的人体姿态数据集的评估,实验证明该模型在正面视图上实现了竞争性性能,在替代视角上实现了最先进的性能。
Mar, 2016
用快速的自下而上的方法,结合图形中心性度量对人类或物体上的 100 多个关键点进行检测,为硬件和人物建模,量化关键点的独立性,将训练权重分配给不同部位的姿势。经实验证明该方法优于以往的所有人体姿势估计方法,而且具有很好的泛化性能。
Oct, 2021
本研究提出了一种基于渲染图像合成和 CNN 的三维模型视点估计框架,通过构建可扩展且抗过拟合的图像合成流水线和针对视点估计任务的新型 CNN,实现了对 PASCAL 3D + 基准测试的最先进方法的显着优化
May, 2015
本文比较了不同的物体类别视点估计方法,并提出一种新的联合训练方法,并强调了分类方法的优越性、深度架构和扩展训练数据的好处,并证明了即使使用 ImageNet 训练数据,合成数据也是有益的。结合所有这些因素,我们在 Pascal3D + 数据集上的结果比先前的最新成果提高了约 5%的 mAVP,特别是在 24 个视点分类任务上,将结果从 31.1%提高到 36.1%的 mAVP。
Sep, 2016
该研究提出了一个新的数据集(THEODORE+),用于训练和评估卷积神经网络(CNNs)在全景相机中识别人体姿态,以及针对 THEODORE + 数据集的四种重新训练或微调神经网络的训练方法,并在 PoseFES 数据集中取得较明显的改进。
Apr, 2023
本研究提出了一种用于人体关键点检测的有效网络结构、三种有效的训练策略和四种有用的后处理技术,通过积极利用丰富的非标记数据和上下文信息来提高检测准确性,从各个方面解决了由于遮挡、模糊、光照和尺度差异等因素所导致的挑战性问题,并在 MS COCO 关键点检测基准测试上取得了领先于其他参考方法的结果。
Feb, 2020
提出了一种从常规彩色输入中定位 2D 手部关键点的新方法,该方法依赖于适当设计的卷积神经网络(CNN)计算一组热图(每个手部关键点一个),并在标准、公开数据集上通过大量实验将其与现有方法进行比较,在精度方面与竞争方法相匹配或优于竞争方法,但在计算效率方面明显优于竞争方法,因此适合于需要在移动设备上进行手部关键点估计的应用程序的构建块。
Dec, 2018