人体姿态估计轻量级超分辨率头
本文提出了一种减轻资源负荷、加速推理速度的方法,是通过在 SimpleBaseline 的反卷积头网络中引入注意机制来利用原始、跨层次和内层次信息以提高精度,并采用称为 heatmap 加权损失的新型损失函数,生成热图上每个像素的权重,使模型更加注重关键点,实验证明我们的方法在性能和资源和推理速度之间实现了平衡,具有不错的适用性。
May, 2022
本研究提出了基于尺寸自适应和权重自适应的热度图回归方法用于人体姿态估计,通过适应性地调整每个关键点的标准偏差以更好地面对人体尺度以及标注的不确定性。实验证明,该方法可以显著提高底部姿态估计的准确性,使其超越现有状态下最先进的顶部方法,并在 COCO 测试 - dev2017 上获得 72.0AP 的成绩。
Dec, 2020
这篇论文提出了 HigherHRNet,一种新的从下往上的人体姿态估计方法,使用高分辨率特征金字塔学习尺度感知表示,具有多分辨率监督训练和多分辨率聚合推理的能力,能够解决下向多人姿势估计中的尺度变化挑战,从而更精确地定位关键点,尤其适用于小尺寸人体,实现了比以前最好的下向方法在 COCO test-dev 中中等人体上 2.5% AP 的提高。在 CrowdPose test 上,HigherHRNet 甚至超过了所有自上而下的方法,表明其在拥挤场景中具有鲁棒性。
Aug, 2019
本研究提出了一个称为 HybridPose 的混合模型,通过最大化两种方法的优点来互相克服它们的缺点,同时引入自相关损失来注入关键点坐标和可见性之间的空间依赖性,从而在不降低姿势估计准确性的情况下展示了关键点的可见性。
May, 2023
本论文利用 pytorch 实现了一种深度高分辨率表示学习方法用于人体姿态估计,通过建立多分辨率子网并在并行连接中进行信息融合,最终得到更精准、更高精度的关键点热图,实验证明该方法在 COCO 关键点检测数据集和 MPII 人体姿态数据集上具有显著优势。
Feb, 2019
本文介绍了一种基于向下拼接的人体姿态估计框架,其中通过关键点检测和聚类两个阶段进行处理。在该框架下,本文提出了多种方案,包括使用关键点热图进行像素级别的关键点回归、采用像素级别空间变换网络学习适应性表示处理尺度和方向差异并提高关键点回归质量,以及使用联合形状和热值评分方案提升预测姿态的可靠性,最终获得了最先进的人体底部向上姿态估计结果。
Jun, 2020
本论文提出了一种新颖的面部高清晰度恢复方法,采用了渐进式训练、面部注意力损失和压缩的人脸标注热图提取网络,实现了全面的面部特征恢复,使得图像更为逼真清晰,表现最好。
Aug, 2019
通过引入 Spatially Unidimensional Self-Attention (SUSA),我们减少了 pointwise(1x1)卷积的计算复杂度,并构建了轻量级姿势估计框架 X-HRNet,该框架在 COCO 基准测试中表现卓越,并且 SUSA 模块的有效性得到了全面验证。
Oct, 2023
该论文研究了使用深度神经网络进行图像超分辨率(SR)的任务,并且提出了一种双重回归学习方案和轻量级双重回归压缩方法,以解决 SR 映射空间极大和模型冗余的问题。
Jul, 2022
我们提出了一种新的半监督学习设计,用于人体姿势估计,通过增强双学生框架,引入去噪方案生成可靠的伪热图作为无标签数据学习的目标,并通过估计的交叉学生不确定性从伪热图中选择学习目标。我们在 COCO 基准测试上进行了多个评估设置,结果显示我们的模型在极低数据情况下优于以前最先进的半监督姿势估计器,例如,只有 0.5K 标记图像时,我们的方法能够超越最好的竞争者 7.22 mAP (绝对改进量为 + 25%),我们还证明了我们的模型可以从非标签数据中有效学习,以进一步提升其泛化和性能。
Sep, 2023