Mar, 2024

FBPT:一个完全二进制的点转换器

TL;DR本论文提出了一种新颖的全二进制点云 Transformer(FBPT)模型,可以在机器人和移动设备领域得到广泛应用和扩展。通过将 32 位全精度网络的权重和激活压缩为 1 位二进制值,提出的二进制点云 Transformer 网络大幅减少了点云处理任务中神经网络模型的存储占用和计算资源要求。然而,实现全二进制点云 Transformer 网络(除了特定于任务的模块外其他部分均为二进制)在量化 Q、K、V 和自注意力模块中的激活时面临挑战和瓶颈,因为它们不符合简单的概率分布,并且可以随输入数据变化。本文主要关注解决二进制点云 Transformer 模块使用引起的性能下降问题,提出了一种名为动态 - 静态混合化的新型二值化机制,结合整体网络模型的静态二值化和数据敏感性组件的细粒度动态二值化方法。此外,我们还采用了新颖的分层训练方案来获得最佳模型和二值化参数。这些改进使得所提出的二值化方法在点云 Transformer 结构中优于应用于卷积神经网络的二值化方法。为了证明我们算法的优越性,我们在两个不同的任务上进行了实验:点云分类和位置识别。