部分指纹的身份验证和相对姿态的联合估计
该研究提出了一种基于全卷积神经网络和条件随机场的联合框架,旨在同步解决人体姿态估计和语义部位分割问题,并在 PASCAL VOC 数据集上进行了广泛实验,显示该算法在这两个任务上均优于竞争方法。
Aug, 2017
提出一个用于任意生物识别匹配场景的鲁棒性通用框架,将 FCN 的特征映射和基于字典学习的空间特征重构技术相结合,应用特征后处理步骤以及批次硬三元组损失函数进行优化,实验证明该方法具有很高的性能。
Oct, 2018
该论文提出了基于深度学习的手部检测方法,在同一时间内对手部进行检测和旋转校准。借助上下文感知建议生成算法以保证召回率,并设计了一个 CNN 来显式处理物体旋转问题,实验证明该方法在人机交互等领域的应用优于现有方法。
Dec, 2016
本文提出了一种名为 “Keypoint Transformer” 的深度神经网络结构,该结构可以通过二维关键点自注意力机制提取手部三维位姿,实验结果表明该算法在 InterHand2.6M 数据集上性能优于当前所有算法,并可以扩展到双手操纵物体的三维位姿估计,同时作者还提供了超过 75,000 个手部交互的三维场景数据集。
Apr, 2021
本文提出了一种基于卷积神经网络的方法来估计两个相机之间的相对姿态,该方法采用来自两个相机的 RGB 图像作为输入,并直接输出相对旋转和平移。与 SURF、ORB 这些广泛使用的局部特征方法相比较,该方法采用端到端的方式训练,利用大规模分类数据集进行迁移学习,结果表明相对基准线有明显的改进。此外,本文还介绍了一种包含空间金字塔池化 (SPP) 层的网络结构变体,并证明进一步提高了性能。
Feb, 2017
本文提出了一种基于深度学习的算法,用于精确定位和标记斜向和过度旋转的掌纹影像中的指纹,并通过在新数据集上的训练证明此算法在不同年龄组的掌纹影像中均具有不变性,并在成年人和儿童主体的正常和旋转图像的综合数据集中,实现了 97.17%的匹配准确度,表现优于现有的系统。
Mar, 2023
相机位姿估计的方法可以通过找到对应关系和解决基础矩阵的方式在大多数情况下提供高精度,而使用神经网络直接预测姿态的方法对于有限重叠的情况更加鲁棒,并能够推断出绝对平移尺度,但精度较低。我们展示了如何结合这两种方法的优点;我们的方法能够同时提供精确和稳健的结果,并准确推断出平移尺度。我们模型的核心是一个 Transformer,它通过学习平衡已解决和学习的姿态估计,并提供一个先验信息来指导求解器。全面的分析支持了我们的设计选择,并证明了我们的方法能够灵活适应各种特征提取器和对应估计器,在 Matterport3D、InteriorNet、StreetLearn 和 Map-free Relocalization 上展现了最先进的 6 自由度姿态估计性能。
Mar, 2024
本文提出了一种基于神经网络的新型三维人体姿态估计算法,采用关系网络的结构来捕捉不同身体部位之间的关系,并使用每对不同身体部位生成的特征的平均值进行 3D 姿态估计,提出的网络在 Human 3.6M 数据集中实现了最先进的性能,并能在缺失关节的情况下有效地产生可信的结果。
May, 2018
本研究提出使用 Vision Transformer(ViT)模型的统一系统架构,实现虚假检测和匹配,并取得了与最先进(SOTA)的顺序系统相当的 98.87% 的平均集成匹配(IM)准确率,但参数只有后者的约 50%,延迟只有后者的约 58%。该方法适用于安全指纹识别等场景。
May, 2023