本文提出了一种基于透视点的三维物体检测模型PerspectiveNet,使用局部曼哈顿三维关键点的二维投影作为中间表示,利用透视几何的几何约束来提高检测准确性,在SUN RGB-D数据集上取得了极大的性能提升。
Dec, 2019
提出了一种基于MoVi-3D的深度学习架构,使用几何信息生成虚拟视图对单目RGB进行3D物体检测,与传统方法相比,成功削减了视觉差异性导致的深度学习复杂度,从而取得了KITTI3D基准测试的新的最优结果。
本文提出了一种基于单目RGB图像的3D目标检测方法——Center3D,通过利用2D 和3D中心之间的差异及组合分类和回归方法,可以更加准确、高效地定位和深度估计,相较现有方法,实验表明此方法在KITTI数据集上表现更好。
May, 2020
KM3D-Net 提出了一种基于 RGB 图像和关键点的单次检测框架,通过结合完全卷积模型、几何约束和不依赖 CAD 模型、深度生成器,以及一种有效的半监督训练策略,实现了卓越的检测表现,并超过以前所有的最先进方法。
Sep, 2020
提出了一种灵活的单目3D物体检测框架,它显式地分离了长尾切断物体,并自适应地组合多种方法来估计物体深度。
Apr, 2021
该文通过构建几何相关图,利用概率表示来解决单目三维检测的问题,从而提高了检测性能并保持实时性的有效性。
Jul, 2021
本文提出了一种基于实例分割的类别级位姿估计方法,利用相机独立几何推理来应对不同数据集的相机视角和内部参数变化,取得了在KITTI3D基准测试中超越相机依赖方法的优异表现。
Oct, 2021
本文提出一种名为MonoATT的在线移动单眼3D物体检测框架,该框架采用形状和大小不同的异构令牌进行识别,并结合注意力机制和分数网络提高检测准确率,实验证明MonoATT在KITTI 3D基准上排名第一。
Mar, 2023
通过结合透视感知卷积层提取更精确和具有上下文意识的特征,将场景线索建模为准确的深度推断,从而提高单目3D目标检测性能。
Aug, 2023
通过增加全局深度线索和利用多个深度线索之间的几何关系,提出的方法可以提高单眼三维对象检测的深度补充性,实现了最新性能并无需引入额外数据。
Apr, 2024