本文提出了一种基于 Transformer 编码器结构的点云去噪模型 NoiseTrans,通过自注意力机制以及本地点云注意力和稀疏编码等技术,将嘈杂的点云转换成干净的点云,实验结果显示该模型在各种数据集和噪声环境中优于现有技术。
Apr, 2023
使用 Transformer 从带有噪声和密度变化的点云中准确预测法线,在合成形状数据集 PCPNet 和真实世界室内场景数据集 SceneNN 上实现了最先进的性能,表现出更强的抗噪性和显著更快的推理速度,同时证明了现有工作中的复杂手工设计模块在表面法线估计任务中并非必需。
Jan, 2024
提出了一种基于 Transformer 以及 Laplacian 特征编码的多边形网格的语义分割方法,并在 Shape COSEG 数据集、人类分割数据集以及 ShapeNet 基准上实现了最先进的性能。
Jul, 2023
本文提出一种名为 Mesh Graphormer 的图卷积强化 Transformer,可从单张图像中重建 3D 人体姿势和网格。实验结果表明,该方法在多个基准测试中显著优于先前的最先进方法。
Apr, 2021
使用名为 3DTextureTransformer 的新颖框架,结合几何深度学习和 StyleGAN 类似的架构,能够在不改变原始高分辨率输入网格拓扑的情况下生成高质量的纹理。该架构在学习来自 3D 几何体和现实世界 2D 图像的情况下,与任意网格拓扑一起工作,取得了该类解决方案中的最新性能。
Mar, 2024
通过引入新的矩阵关注 Transformer(Tensorformer)来实现更好的局部几何建模和更高质量的表面重建,成果在两个常用的数据集上均已超越同行,并在 ShapeNet 上取得 4%的 IOU 改进。
Jun, 2023
本文提出了一种新颖的 Denoise Transformer 算法,其中包括 CADT 单元和 SNE 块,通过二者的结合构建分层网络,直接利用残差学习获取噪声分布信息,进而形成最终的去噪输出。实验证明,该算法在传统深度学习方法中具有更好的性能和岩石文本以及低光图像,而不需要关于噪声级别或类型的任何先前知识。
本文提出了一种高效的 Dual-branch Deformable Transformer (DT) 去噪网络,在局部和全局分支中均应用了可变形关注机制,能够更好地捕捉图像中的局部和全局交互,并能显著减少计算成本,取得了在真实世界和合成去噪任务方面的最先进性能。
本文提出了一种基于自编码器的 3D 点云去噪方法,该方法通过学习嵌入式邻域特征的稀疏点的局部和非局部特征表示,对 3D 点云中的噪声进行去除,并通过重建的流形重新采样得到去噪后的点云,该方法在合成噪声和真实世界噪声下均表现出显著的性能优于现有的去噪方法。
Jul, 2020
本文提出了一种名为 DeFormer 的新型双通道 Transformer 架构,通过参数化的可变形模型同时估计原语的全局和局部变形,以实现复杂对象形状的抽象化,在使用较少的原语的同时提供更广泛的几何覆盖范围和更精细的细节,并引入了力驱动的动态拟合和循环一致的投影损失来优化原语参数,在 ShapeNet 上的广泛实验表明,DeFormer 在重建准确性方面优于现有技术,并且通过一致的语义对应关系实现了可解释性的提升。
Sep, 2023