一个强健的 3D-2D 交互工具用于场景分割和标记
本文提出了一个交互式框架,用于从点云数据和 RGB 图像中注释 3D 对象的几何形状,让普通用户能够高效地进行标注,而无需专业技能。该框架包含两个简单易用的交互模块:第一个模块自动猜测 3D 形状并允许用户在所需的 2D 视图中绘制草图提供大误差反馈;第二个模块根据图形卷积网络实现,帮助用户轻松地调整完善 3D 形状。实验验证了本框架在 ShapeNet、Pix3D 和 ScanNet 等流行基准测试上的良好表现,并通过用户研究证明,使用本方法注释的数据可有效促进现实世界的学习任务。
Aug, 2020
本文提出了一种高效而健壮的技术,实现了 3D 室内场景的即时密集语义分割和重建,该方法基于高效的超体素聚类方法和来自结构和对象线索的高阶约束的条件随机场,无需预先计算即可进行渐进式密集语义分割。通过对 SceneNN 和 ScanNet 数据集中的不同室内场景进行广泛评估,证明了该技术在定性和定量实验中始终能够产生最先进的分割结果。
Apr, 2018
该研究论文提出了一种将语义实例标签从二维提升到三维的方法,通过从解析来自立体或激光数据的重建场景的 2D 标签信息,转化到图像域,可更高效地完成像素级别的语义注释与更准确,基于时间的标签。
Nov, 2015
本文提出了一种基于深度交互式分割模型的交互式对象分割方法,并利用真实人类注释数据集发布了一个实例分割数据集,同时还提供了一个自动评估模型以更好地保证注释质量。
Mar, 2019
利用虚拟现实技术开发的 Shooting Labels 标注工具,可以快速标注大规模环境的 3D 语义分割数据,同时可以集成多用户标注并计算标签的不确定性,还能将 3D 标注投影到 2D 图像中,提高像素级语义标注的准确性和效率。
Oct, 2019
介绍了一个名为 3D Labeling Tool(3DLT)的标注工具,利用深度信息从图像中重建三角网格来对目标进行一次标注,大大提高了标注的速度。该工具可用于 2D 图像和 3D 三角网格,并且采用注册和异常值检测等技术提高标注精度。
Jul, 2022
基于深度学习的医学图像自动分割系统面临大量数据标注成本和模型迭代中的高延迟问题,本研究提出了一种动态交互学习框架,通过将交互式分割与端到端弱监督学习和流式任务集成,解决了这些挑战。我们开发了新颖的重放和标签平滑方案,克服了灾难性遗忘并提高了在线学习的鲁棒性,并在每个图像上同时优化前端预测和深度学习分段器的多轮交互式分割模块。通过空间残差图,我们训练的分段器明确地指导下一步的用户干预,从而实现了弱监督信号的蒸馏。通过在三维分割任务(NCI-ISBI2013 和 BraTS2015)上的评估,我们的框架生成了与离线训练基准相匹配的在线学习性能。此外,我们的框架减少了 62% 的标注工作量,并且在与具有完整 ground truth 的在线和离线学习进行对比时,生成了具有竞争力的 dice 分数。此外,由于其灵活性和响应能力,这样的框架可以部署在保证数据安全和简便维护的医院防火墙之后。
Dec, 2023
针对任何整体三维场景,本论文提出了 U3DS$^3$ 作为一个完全无监督的点云分割方法,通过利用点云的固有信息来实现全三维场景分割,并且在 ScanNet、SemanticKITTI 和 S3DIS 数据集上提供了最新的研究成果和具有竞争力的结果。
Nov, 2023
通过提供用户友好的 2D 界面,iDet3D 能够在最小的交互中帮助用户注释场景中的全部目标,通过密集点击引导和空间点击传播等技术实现了高精度的三维目标检测的有效加速。
Dec, 2023
通过引入 2D 模型的特性,我们提出了 Segment3D 方法,用于生成高质量的 3D 场景分割掩码,从而实现对于细粒度掩码的改进,并且能够轻松添加新的训练数据以进一步提升分割性能,而无需手动标注训练标签。
Dec, 2023