Jun, 2023

基于特征对抗蒸馏实现点云分类

TL;DR本文提出了 Feature Adversarial Distillation (FAD) 方法,在点云蒸馏中使用对抗性损失函数,通过攻击来自教师的反馈来获得学生的特征,从而在 40 倍模型压缩下,减少知识传递中的信息损失,同时保持了竞争性的性能。实验证明了该方法在 ModelNet40 和 ScanObjectNN 数据集上的有效性。