USIP:3D 点云无监督稳定关键点检测
提出了一种使用 PointNet-based 深度神经网络学习具有区分性的 3D 局部深度描述符 (DIPs) 的简单而有效的方法,该方法可用于在不需要初始对齐的情况下注册点云。
Sep, 2020
本文介绍了一种基于无监督深度学习的兴趣点检测器和描述器 - UnsuperPoint。使用自监督方法,使用孪生网络和一种新的损失函数,允许兴趣点得分和位置自动学习。而且,该模型不需要生成伪真实点,也不需要从运动中生成的表示,并且只需要一轮训练即可学习。此外,还引入了一种新的损失函数,以使网络预测均匀分布。UnsuperPoint 在 $224 imes320$ 和 $480 imes640$ 分辨率下可以实现每秒 323 帧和 90 帧的实时运行,并在速度、可重复性、定位、匹配得分和单应估计表现方面与最先进的性能相当或更好,在 HPatch 数据集上取得了良好的表现。
Jul, 2019
我们提出了一种自我监督的像素级追踪模型,名为 PIPsUS,该模型可以在单次前向传递中追踪任意数量的点,并利用多个而不仅仅是连续的帧考虑时间信息。我们的方法在颈部和口腔超声以及超声心动图上进行了评估,与快速归一化互相关和调整的光流相比,显示出更高的点追踪准确性。
Mar, 2024
该研究提出了一个名为 SimIPU 的简单而有效的 2D 图像和 3D 点云无监督预训练策略,利用点云提供空间信息,通过对比学习框架来生成空间感知的图像表示。这是第一次探索对配对的相机图像和 LIDAR 点云进行对比学习预训练策略。
Dec, 2021
本文提出了一种利用神经网络进行无监督学习的方法,通过在变换不变的情况下对兴趣点进行排名,采用排名的前 / 后分位数提取兴趣点,证明其在标准 RGB 图像和 RGB 与深度图像间的兴趣点检测任务中具有更好的性能。
Nov, 2016
本文提出了一种基于点云的新型三维物体检测框架 IPOD,使用每个点作为基本部件提供了高召回率和高信息保真度,设计了一种全尺寸可训练的架构,在 KITTI 数据集上取得了最新的最好表现,特别是在 hard set 上显示出极大的优势,可用于三维、俯视图和二维物体检测。
Dec, 2018
提出了一种新方法来从噪声、降采样和任意旋转的实际场景中对任意对象类别进行关键点推断的方法,该方法是完全无监督的,关键点位置误差低,对点云数据扰动具有弹性,关键点保持其索引的语义一致性,且靠近点云数据表面,并在对象的三维形状下游任务中具有改进的覆盖范围和语义一致性。
Aug, 2023
本文提出了一种高效的基于点云的 3D 检测器 IA-SSD,利用可学习的面向任务的实例感知下采样策略分层选择感兴趣物体的前景点,进一步估计精确的实例中心,并采用仅编码器架构实现。大规模检测基准测试表明,该模型具有卓越的速度性能,能够以 80 个以上的速度在 KITTI 数据集上进行实时检测。
Mar, 2022
本研究提出一种名为 IAF-Net 的网络,利用分层语义特征自适应选择难以区分的点并加强精细特征,以解决大规模 3D 点云语义分割中的难点,并引入多阶段损失和新型评价指标 IPBM 来改善特征表示和进行分割性能分析。结果表明,IAF-Net 在几个热门 3D 点云数据集上取得了与最先进性能相当的结果,并在 IPBM 上明显优于其他方法。
Mar, 2021
本文通过自监督学习的方法针对鱼眼和投影图像混合的情况,研究关键点检测和匹配问题,提出了一种训练兴趣点检测器和描述符网络的方法,并证明了目前的方法不是最优解,提出的方法是最有效的。
Jun, 2023