基于三视图知识蒸馏的半监督语义分割
本文引入了 TripleNet 架构来优化联合目标检测和语义分割任务,通过采用三种不同的监督学习模块,在不增加额外计算开销的情况下提高了模型的精度。实验结果表明,TripleNet 可以有效提升联合目标检测和语义分割的准确性。
Sep, 2018
本研究提出了一种新颖的多模式学习方案,以实现无配对交叉模态图像分割,该方案采用高度压缩的体系结构,通过共享所有卷积核跨 CT 和 MRI 和仅使用特定于模态的内部归一化层来对网络参数进行大量重用,通过知识蒸馏受启发的新颖损失项来显式约束我们推导出的模态之间的预测分布的 KL 散度来有效地训练这样的高度紧凑模型。在心脏结构分割和腹部器官分割两个多类分割问题上进行了广泛验证,实验结果表明,我们的新型多模式学习方案在两个任务上一致优于单模态培训和以前的多模式方法。
Jan, 2020
针对语义分割中的计算效率和精度问题,本文提出一种知识蒸馏方法,利用预训练自编码器在转移潜空间内优化特征相似度,同时引入亲和力蒸馏模块以计算整个图像的远程依赖,将经典的深度 FCN 用于大步长下进行语义分割,实验证明,所提出的方法不仅可以提高小型 FCN 的精度,还可以使用较少的 FLOPS 训练出优秀的小型模型。
Mar, 2019
通过使用 RGB 图像提供场景的更密集表示,我们提出了一种基于图像引导网络(IGNet)的方法,该方法借鉴了通过域适应合成训练的 2D 语义分割网络中的高级特征信息,进一步利用了一种称为 FOVMix 的新型混合策略以解决两个传感器之间的水平视场不匹配问题,以增强图像引导效果,并在 ScribbleKITTI 上实现了弱监督 LiDAR 语义分割的最先进结果,与全监督训练相比,仅使用 8% 的标记点,无需额外的标注负担或推理中的计算 / 内存成本。此外,我们还展示了我们的方法在半监督训练中的有效性,IGNet 在 ScribbleKITTI 和 SemanticKITTI 上均取得了最先进的结果。
Nov, 2023
本文提出了一种基于多源知识蒸馏的 3D 点云语义分割方法,采用多到单的融合方式,通过实例感知亲和性蒸馏算法获取高级结构知识,实现对于难分类类别的提升。在 SemanticKITTI 数据集中实验证明,该方法在验证集和测试集上均显著优于基线方法。
Apr, 2023
这篇论文提出了一种针对图像语义分割的新型知识蒸馏方法,称为 Intra- and Inter-Class Knowledge Distillation(I2CKD)。该方法的重点是捕捉和转移教师(笨重模型)和学生(紧凑模型)的中间层之间的知识。为了进行知识提取,我们利用特征图生成了类原型。为了促进知识传递,我们采用三元损失来最小化教师和学生原型之间的类内方差,最大化类间方差。因此,I2CKD 能够使学生更好地模拟教师每个类的特征表示,从而提高紧凑网络的分割性能。使用各种教师 - 学生网络对 Cityscapes、Pascal VOC 和 CamVid 三个分割数据集进行广泛实验,证明了所提方法的有效性。
Mar, 2024
提出一种基于多层级知识蒸馏技术的轻量级半监督语义分割模型,采用标注数据和未标注数据的协同蒸馏方案,结合像素级一致性约束、语义感知层次损失和内容感知区域损失等多层次损失策略,从多个角度对模型知识进行精炼,能够在消耗更少的运算资源和更小的模型体积下取得同类模型不可比的性能提升。
Aug, 2022
本文提出了一种跨图像关系知识蒸馏方法,通过结构化像素之间和区域之间的关系来提高学生模型的分割性能。在 Cityscapes,CamVid 和 Pascal VOC 数据集上的实验结果表明,该方法比现有的蒸馏方法效果更好。
Apr, 2022
本研究旨在探究神经网络在医学图像分割任务中的知识迁移可行性,特别关注从大规模多任务的 “教师” 网络向更小的 “学生” 网络的迁移。我们通过多尺度特征蒸馏和监督对比学习的结构,通过整合从教师模型获取的知识表示来提高学生模型的性能,并通过大量实验和消融研究评估了多尺度特征蒸馏的影响,以及不同损失对知识迁移的整体性能的影响。
Jun, 2024
本文提出 X^3KD,一种基于多模态、多任务、多阶段的知识蒸馏框架,通过跨任务蒸馏、跨模态特征蒸馏、对抗训练以及跨模态输出蒸馏等方式,改进了基于多摄像头图像的 3D 物体检测模型性能,最终 X^3KD 模型在 nuScenes 和 Waymo 数据集上取得了最新的最佳性能表现,并且具有推广到基于雷达的 3D 物体检测的能力。
Mar, 2023