Mar, 2024
基于软掩码的点云处理的 Transformer 与跳过关注的上采样
Soft Masked Transformer for Point Cloud Processing with Skip Attention-Based Upsampling
Yong He, Hongshan Yu, Muhammad Ibrahim, Xiaoyan Liu, Tongjia Chen...
TL;DR将任务级信息整合到编码阶段,采用软掩码并使用任务级查询和关键字生成的注意力权重学习来增强 SMTransformer 的性能,同时通过跳跃注意力上采样块动态融合来自编码和解码层的各种分辨率点的特征,以在点云处理任务中实现最先进的语义分割结果。