SeedFormer: 基于补丁种子的点云完整性修复与上采样变换器
该论文提出了一种新方法 PoinTr,将点云补全问题重新构造为集合对集合翻译问题,并采用 Transformer 编码器 - 解码器架构。通过使用定位嵌入在无序点组中表示点云,我们将点云转换为点代理序列,并使用变形器进行点云生成。在点云的局部几何关系中,我们进一步设计了一种几何感知块以更好地利用点云的 3D 几何结构归纳偏差,使得变形器能够更好地学习结构知识和保留详细信息,从而完善点云。此外,我们提出了两个具有更多不完整点云的具有挑战性的基准测试,以更好地反映现实世界的情况。实证结果表明,我们的方法在新的基准测试和现有基准测试上均优于现有最先进的方法。
Aug, 2021
本论文介绍了一种基于 transformer 模型的多头自注意力结构和位置融合块的点云上采样方法,并通过定量和定性的对比实验证明了其优越性能。
Nov, 2021
在点云学习领域中,由于 Transformer 模型生成的注意力矩阵具有输入规模的平方复杂度,因此本文提出了一种采用自适应方式学习较小基础上的基础并通过它们的带权求和来计算注意力矩阵的方法 (PAT),并借助于轻量级的多尺度注意力块(MST)来实现对不同尺度特征的关注,最终构建了一个名为 PatchFormer 的神经网络,为点云学习提供了可比较的准确性,并且比以前的点 Transformers 快 9.2 倍。
Oct, 2021
ShapeFormer 是一个基于 transformer 的网络,它可以在给定不完整和可能带有噪声的点云的情况下生成物体完成的分布,通过采样分布,可以生成类似于输入的可能完成物体,我们引入了一种紧凑的 3D 表示方法 —— 向量量化深度隐式函数,它利用空间稀疏性将 3D 形状的近似表示成短序列的离散变量,实验表明,ShapeFormer 在处理不完整的输入情况下的物体形状补全问题上性能优于先前的方法。同时,我们还展示了我们的方法可以有效处理各种不同形状类型,不完整的输入模式和真实世界的扫描数据。
Jan, 2022
本文提出了一种新的方法,将点云补全问题转化为集合转换问题,并设计了一种名为 PoinTr 的新模型,采用 Transformer 编码器 - 解码器架构进行点云补全。通过将点云表示为带有位置嵌入的无序点组的集合,我们将输入数据转换为点代理的序列,并使用 Transformer 进行生成。为了更好地利用点云的 3D 几何结构的归纳偏差,我们进一步设计了一个几何感知块,以显式模拟本地几何关系。我们还进一步提出了 AdaPoinTr,并在点云完成期间开发了自适应查询生成机制和新颖的去噪任务,实现了模型的高效和有效训练。我们还展示了我们的方法可以扩展到场景级点云完成方案,并设计了一种新的几何增强语义场景完成框架。我们的方法在现有和新提出的数据集上进行了大量实验证明其有效性,获得了 6.53CD 的 PCN,0.81CD 的 ShapeNet-55 和 0.392MMD 的真实 KITTI,在各种基准测试中均超过了其他工作,并建立了新的技术水平。值得注意的是,AdaPoinTr 可以以更高的吞吐量和更少的 FLOP 实现如此令人满意的性能,而不像以前的最佳方法。
Jan, 2023
提出了一种级联细化网络结合粗到细的策略,通过考虑局部输入的细节和全局形状信息,保留了不完整点集中的现有细节,生成高保真度的缺失部分,并设计了一个补丁鉴别器来学习复杂的点分布,实验结果表明在 3D 点云完成任务中,我们的方法优于现有最先进的方法。
Apr, 2020
本研究提出了一种基于图卷积和变压器结合的点云上采样方法 PU-EdgeFormer,能够同时学习点云的局部和全局结构,通过实验证明在客观和主观方面都优于现有的最先进方法。
May, 2023
本研究提出了一种基于深度神经网络的点集上采样方法,通过层级渐进式地使用级联的基于 path 的上采样网络训练,优化各级别的细节并提供一系列架构设计改进,以实现对于低分辨率点云输入的高保真细节重建。在定性和定量实验中,本方法在处理低分辨率输入和揭示高保真度细节方面,均显著优于现有的基于学习和优化的方法。
Nov, 2018
本文提出了一种新的点云补全方法 ProxyFormer,通过代理信息进行现有和待预测的部分之间通信,使用特征和位置提取器将信息融合到点代理中,通过缺失部分敏感转换器获取更合理的位置信息,对缺失代理进行校准,使得预测的点代理更加适合后续的粗到细过程,实验结果表明,我们的方法在多个基准数据集上优于现有的补全网络,并具有最快的推理速度。
Feb, 2023
基于分治法的点云生成框架,通过基于可学习先验的补丁生成器和点块转换器,实现了高保真度点云生成,并在 ShapeNet 数据集上优于最新的高保真度点云生成方法。
Jul, 2023