多视角配准监督
本文提出了一种半监督学习框架 MONET,用于使用多视图图像流检测关键点,在具有挑战性的获取大规模标注数据的非人类物种中,我们考虑使用多视图几何可用于自监督非标记数据,通过制定称为极线离散度的新的可微分表示来解决表示不匹配,并使用立体校正来最小化极线离散度,以便能够本文演示的多种物种的关键点定位。
May, 2018
通过图像和视频的无监督方法,利用光流法进行检测的统一性,提高面部标记检测器的精度,最终输出更精确的面部标记检测器,适用于单张图像或视频。
Jul, 2018
本文介绍了一种无人监督的方法,使用未标记的多视角视频来改善地标探测器的精度和准确性,利用不需要人工注释的监督源,通过可微的配准和三维三角测量模块进行端对端训练,实验表明该方法可以提高地标检测在图像和视频中的精度和准确性。
Jan, 2021
我们提出了一种多视角伪标记方法来进行视频学习,它利用外观和运动信息的互补视角进行半监督学习,以获取更可靠的伪标签并比纯监督数据学习更强的视频表示。我们的方法在多个视频识别数据集上大大优于其监督对应方法,并在自监督视频表示学习的标准基准测试中与先前的工作相比具有竞争优势,同时仍然训练一个共享外观和运动输入的模型,因此在推理时间不会产生额外的计算开销。
Apr, 2021
该研究提出了一种利用多相机系统训练微粒子探测器的方法,采用多视角几何或标记为异常值对噪声标签进行三角测量来改善探测器,从而实现单幅图像的手指关键点检测,并使该技术成为实现具有复杂对象交互的无标记 3D 手部动作捕捉的解决方案。
Apr, 2017
该篇论文提出一种无需直接监督的学习单视角形状和姿态预测的框架,通过利用未知姿态的多视角观察信号进行训练,并在训练中在同一实例的两个视图之间强制实施几何一致性来独立预测形状和姿态,从而学习在新出现的标准框架中预测形状和相应的姿态预测器。在使用 ShapeNet 数据集时,取得了与先前依赖更强监督形式的技术相当的鼓舞人心的竞争成绩。此外,还展示了该框架在现实环境中的适用性,该环境超出了现有技术范畴:使用由在线产品图像组成的训练数据集,在这些数据集内,底层的形状和姿态是未知的。
Jan, 2018
本文提出一种以单个图像和动作类别为条件的深度视频预测模型,通过检测物体关键点并将关键点序列预测为未来运动,然后通过平移输入图像来生成未来帧。该方法通过无监督方式训练来检测任意对象的关键点,并使用原始视频的检测关键点作为伪标签学习物体运动,实验结果表明,我们的方法可以应用于各种数据集,而不需要对视频中的关键点进行标注,检测到的关键点类似于人工标注的标签,并且与以前的方法相比,预测结果更加真实。
Oct, 2019
该研究提出了基于深度卷积去卷积模型的鲁棒人体姿态估计方法,通过多尺度的上下文监督和全局回归的方式增强模型的姿态鲁棒性,并在 MPII 和 FLIC 数据集上展示了具有竞争力的性能。
Aug, 2018
本研究提出了一种新的多视角检测系统 MVDet,采用基于鸟瞰图的无 Anchor 盒方法来聚合视图信息并在地平面特征图上应用大内核卷积。在新引入的合成数据集 MultiviewX 上的结果表明,相比于现有方法在 Wildtrack 数据集上的最新技术,该方法提高了 14.1% 的 MODA 性能。
Jul, 2020