ProxyFormer: 借助代理对齐的点云补全及敏感遗漏部分变换器
本文介绍了一种名为SnowflakeNet的点云完成算法,采用Snowflake Point Deconvolution (SPD)来生成完整的点云,通过引入skip-transformer和SPD来学习最佳匹配局部区域的点分割模式,生成具有结构性和精细几何细节的点云,实验结果表明该方法优于现有的点云完成方法。
Aug, 2021
该论文提出了一种新方法PoinTr,将点云补全问题重新构造为集合对集合翻译问题,并采用Transformer编码器-解码器架构。通过使用定位嵌入在无序点组中表示点云,我们将点云转换为点代理序列,并使用变形器进行点云生成。在点云的局部几何关系中,我们进一步设计了一种几何感知块以更好地利用点云的3D几何结构归纳偏差,使得变形器能够更好地学习结构知识和保留详细信息,从而完善点云。此外,我们提出了两个具有更多不完整点云的具有挑战性的基准测试,以更好地反映现实世界的情况。实证结果表明,我们的方法在新的基准测试和现有基准测试上均优于现有最先进的方法。
Aug, 2021
本文提出了一种用于点云补全和上采样的新型神经网络PMP-Net++,该网络通过点云的形变过程实现补全。 Transformer-enhanced representation learning可以进一步提高PMP-Net++的性能。
Feb, 2022
我们提出了一种新的卷积算子,用于点云完成的任务。我们的方法的一个显著特点是与相关工作相反,它不需要任何最大池化或体素化操作。我们的算子不断提取具有置换不变性的特征,以保留细粒度的几何细节,通过对特征激活的软池化,从而学习编码器中的点云嵌入。通过特定设计的跳跃连接,将对应层之间的链接建立在编码器和解码器之间,以克服这类结构常见的限制,同时在点云完成任务中达到了最佳性能。
May, 2022
本文介绍了一种名为SeedFormer的新型Point cloud completion方法,使用Patch Seeds来提高细节保留和恢复能力,并通过Upsample Transformer将transformer结构扩展到基本操作中,以实现粗到细的点云补全。定性和定量评估表明,该方法优于几个基准数据集上的现有补全网络。
Jul, 2022
本文提出了一种新的方法,将点云补全问题转化为集合转换问题,并设计了一种名为PoinTr的新模型,采用Transformer编码器-解码器架构进行点云补全。通过将点云表示为带有位置嵌入的无序点组的集合,我们将输入数据转换为点代理的序列,并使用Transformer进行生成。为了更好地利用点云的3D几何结构的归纳偏差,我们进一步设计了一个几何感知块,以显式模拟本地几何关系。我们还进一步提出了AdaPoinTr,并在点云完成期间开发了自适应查询生成机制和新颖的去噪任务,实现了模型的高效和有效训练。我们还展示了我们的方法可以扩展到场景级点云完成方案,并设计了一种新的几何增强语义场景完成框架。我们的方法在现有和新提出的数据集上进行了大量实验证明其有效性,获得了6.53CD的PCN,0.81CD的ShapeNet-55和0.392MMD的真实KITTI,在各种基准测试中均超过了其他工作,并建立了新的技术水平。值得注意的是,AdaPoinTr可以以更高的吞吐量和更少的FLOP实现如此令人满意的性能,而不像以前的最佳方法。
Jan, 2023
本研究提出了一种新的点云完整性方法Point-PC,使用记忆网络检索形状先验,并设计了有效的因果推断模型来选择缺失的形状信息以帮助点云完整性。
May, 2023
本研究提出了CDFormer,一种新的利用收集和分布机制的Transformer架构,可对点云的局部和全局结构进行有效学习,并在四个流行的点云数据集上取得了新的最佳分类和分割结果。
Jun, 2023
本研究解决了传统点云补全方法中无法同时保持全局几何结构和局部细节的问题。我们提出的GeoFormer通过集成一致的坐标映射和点特征,显著提升了几何特征,并利用多尺度几何感知上采样模块增强了局部细节。实验结果显示,GeoFormer在多个基准测试中表现出色,实现了先进的性能。
Aug, 2024
本研究解决了点云补全网络在训练过程中存在的多对一映射问题,这一问题导致网络受到矛盾的监督信号。我们提出了一种新颖的一致性损失,以确保相同源点云生成一致的补全结果,从而显著提升了现有网络的补全性能,验证了其在多个数据集上的有效性。
Oct, 2024