FusionNet: 使用多种数据表示进行的 3D 物体分类
本文围绕三维信息在物体分类中的重要性,通过改进现有的立体卷积神经网络和多视卷积神经网络结构,引入了基于多分辨率过滤的三维多视卷积神经网络,取得了比现有技术更好的分类效果,并提供了相关实验结果和设计思路分析。
Apr, 2016
本文提出了一种基于多层体素网格的端到端多级学习方法来解决现有 3D 目标识别中结构化和非结构化数据表示的缺陷,结果表明该方法在节约内存的同时能够实现与密集体素表示相当的目标识别性能。
May, 2018
使用卷积深度置信网络将几何 3D 形状表示为 3D 体素网格上的二元变量的概率分布,以实现物体识别和根据 2.5D 深度图形完成 3D 形状恢复等多个方面的任务,利用构建的大规模 3D CAD 模型数据集 - ModelNet 进行训练,可以在各种任务中显著提高性能。
Jun, 2014
本文探讨了三维数据表示方式的重要性,使用基于体素的模型来进行形状建模和物体分类,并提出了训练基于体素的变分自编码器、探索潜空间的用户界面和采用深度卷积神经网络实现物体分类的方法。最终在 ModelNet 基准测试中,我们的模型相较于最新技术提升了 51.5% 的物体分类准确率。
Aug, 2016
该研究提出了一种基于 3D 体素特征的中心点检测方法,其中包括一个有效的粗细重建模块,可从单个 2D 图像中检测和重建多个物体的 3D 位置和形状。
Nov, 2021
本文提出了一种基于全卷积神经网络的三维图像分割方法,通过优化 Dice 系数的目标函数,应对前景和背景体素数量极不平衡的情况,并通过数据增强技术提高数据样本的数量和多样性,实验结果表明该方法在肺部三维图像分割任务中取得了较好的性能。
Jun, 2016
VoxelNet 是一种针对点云图像检测的深度网络,可以将点云分割成等间距的三维体素,并通过新引入的体素特征编码层将每组点转换为统一的特征表示,从而生成描述性的体积表示,并连接 RPN 以生成检测。
Nov, 2017
介绍了一种联合训练 3D 目标检测和单目稠密深度重建神经网络的方法,通过 LiDAR 点云和单个 RGB 图像生成物体姿态预测和密集重建深度,其中 LiDAR 点云被转换为一组体素并使用 3D 卷积层提取特征,通过另一个 2D 卷积神经网络提取相应的 RGB 图像特征,并使用这些组合特征来预测密集深度图。
Apr, 2021
本研究论述了通过 CNN 架构识别单个和多个渲染图像视角的 2D 视图图集能够在 3D 物体识别方面表现出更好的性能,提出并证明 CNN 架构结合多个视角信息可提供更好的识别性能,同样适用于人手绘图的物体识别。
May, 2015