Mar, 2024

基于软掩码的点云处理的 Transformer 与跳过关注的上采样

TL;DR将任务级信息整合到编码阶段,采用软掩码并使用任务级查询和关键字生成的注意力权重学习来增强 SMTransformer 的性能,同时通过跳跃注意力上采样块动态融合来自编码和解码层的各种分辨率点的特征,以在点云处理任务中实现最先进的语义分割结果。