PointTree:具有松弛 k-d 树的鲁棒变换点云编码器
点云配准中的局部和全局特征提取是一个常见问题。本文提出了一种名为 “Point Tree Transformer (PTT)” 的新型基于 Transformer 的方法,通过构建点云的层次特征树和引入一种新的点树注意力机制(PTA)来提取细粒度的局部和全局特征,从而有效地解决低相关性点引起的性能下降和计算复杂度过高的问题。实验证明,该方法在 3DMatch、ModelNet40 和 KITTI 数据集上取得了优越的性能。
Jun, 2024
本文提出了一系列改进点云压缩的方法,包括使用尺度先验模型进行熵编码、采用更深的变换、不同的 focal loss 权重、最优解码阈值和连续模型训练,并通过实验验证这些方法可以带来较好的 BD-PSNR 提升。
Jun, 2020
本文提出了一种新的深度学习方法,通过去除噪声并保持尖锐特征,自动而又稳健地过滤点云,其点对点的学习架构由编码器和解码器组成,并在视觉质量和数量误差指标方面均优于现有深度学习技术。
Feb, 2020
本篇论文介绍了基于学习的卷积变换和均匀量化的静态点云数据几何压缩方法,并将解码过程视为点云占用图的二元分类。该方法在 Microsoft Voxelized Upper Bodies 数据集上表现优异,平均 BDBR 节省率达 51.5%,且能够在低比特率下仍产生高分辨率的输出。
Mar, 2019
本文介绍了一种基于学习的无损压缩方法,可用于静态点云几何图形,基于自适应算术编码。我们的编码器在八叉树和体素编码之间混合操作,即将点云自适应地分区为多分辨率体素块,使用八叉树表示分区。利用深卷积神经网络对体素进行学习和处理,呈现了优越的性能。在 Microsoft Voxelized Upper Bodies(MVUB)和 MPEG 的不同点云数据集上,与最先进的 MPEG G-PCC 标准相比,平均节省了 28%的数据。
Nov, 2020
该论文通过利用规模优势,在点云处理中解决了准确性和效率之间的权衡问题,提出了一种简单高效的 Point Transformer V3 模型,并在多个室内外场景的 20 个下游任务中取得了最先进的结果。
Dec, 2023
Point-BERT 是一种新的 Transformers 范例,通过预训练点云 Transformers 解决 few-shot 分类问题,在 ModelNet40 和 ScanObjectNN 数据集上取得了超过已有模型的优异表现。
Nov, 2021
该论文提出了一种新方法 PoinTr,将点云补全问题重新构造为集合对集合翻译问题,并采用 Transformer 编码器 - 解码器架构。通过使用定位嵌入在无序点组中表示点云,我们将点云转换为点代理序列,并使用变形器进行点云生成。在点云的局部几何关系中,我们进一步设计了一种几何感知块以更好地利用点云的 3D 几何结构归纳偏差,使得变形器能够更好地学习结构知识和保留详细信息,从而完善点云。此外,我们提出了两个具有更多不完整点云的具有挑战性的基准测试,以更好地反映现实世界的情况。实证结果表明,我们的方法在新的基准测试和现有基准测试上均优于现有最先进的方法。
Aug, 2021
本研究提出了一种新型深度点云压缩方法,可以有效保留本地密度信息,采用自动编码器的方式进行降采样和上采样操作,通过密度嵌入、本地位置嵌入和先祖嵌入等方式编码点云局部几何和密度,并在解码时预测每个点的上采样因子和方向尺度,同时也可以压缩点云属性。实验结果表明,该算法在 SemanticKITTI 和 ShapeNet 数据集上实现了最先进的码率失真平衡。
Apr, 2022