自协作知识蒸馏用于新类别发现
我们提出了一种基于已知类数据的无监督新类发现问题的解决方案,其中关键挑战在于将已知类数据中的知识传递到新类的学习中。我们引入了一种基于模型预测的类分布的类关系表示来对新类进行建模,并提出了一个新颖的知识蒸馏框架用于规范新类的学习,通过语义相似性自适应地促进知识传输。通过在多个基准数据集上的广泛实验证实了我们方法的有效性和泛化性,结果表明我们的方法几乎在所有基准数据集上显著优于先前的最先进方法。
Jul, 2023
本文通过解密 novel class discovery (NCD) 的假设,找到高级语意特征应该在已知和未知类之间共享。基于此发现,我们可以通过 meta-learning 算法对 NCD 问题进行经验性解决,在实验中表现出了显著的特性。
Feb, 2021
本文提出了在 Novel class discovery 任务中,基于对称 Kullback-Leibler divergence 来建模类间和类内约束条件的方法,从而有效地提高了性能。实验表明,该方法在多个基准数据集上均超过了当前最先进的方法并取得了显著的性能提升。
Oct, 2022
本研究建立了一个称为 transfer flow 的新度量标准,通过构建一个各种语义相似度的大型基准测试,研究表明对于不同层次的语义相关性,使用纯自我监督知识可能比使用少相似标记集的监督信息更为优越,提出了偏转换流的虚拟版本作为决定是否在 NCD 中使用监督信息的实用参考。
Jun, 2023
DCKD 是一种深度集体知识蒸馏的模型压缩方法,旨在通过丰富的信息让学生模型从老师模型和其他学生模型中获取知识,本文探讨了如何在训练过程中提高类别之间的相关性,实验结果表明该方法在 ImageNet 和 CIFAR-100 数据集上取得了最先进的性能表现。
Apr, 2023
本研究提出了一种名为 NCL 的新框架,旨在学习具有判别性的表示,从而创建一个用于聚类性能的新类别发现(NCD)任务,其中,利用特征提取器生成的表示来检索和聚合伪正对,虽然大多数实例很容易通过网络进行区分,但我们通过在特征空间中混合标记和未标记的样本来生成难以区分的样本。实验证明,这两个组成部分显著提高了聚类性能,并使我们的模型在 CIFAR-100 和 ImageNet 上的聚类准确性提高 13%和 8%,远远超过现有方法。
Jun, 2021
这篇论文提出了一种针对图像语义分割的新型知识蒸馏方法,称为 Intra- and Inter-Class Knowledge Distillation(I2CKD)。该方法的重点是捕捉和转移教师(笨重模型)和学生(紧凑模型)的中间层之间的知识。为了进行知识提取,我们利用特征图生成了类原型。为了促进知识传递,我们采用三元损失来最小化教师和学生原型之间的类内方差,最大化类间方差。因此,I2CKD 能够使学生更好地模拟教师每个类的特征表示,从而提高紧凑网络的分割性能。使用各种教师 - 学生网络对 Cityscapes、Pascal VOC 和 CamVid 三个分割数据集进行广泛实验,证明了所提方法的有效性。
Mar, 2024
研究了一个 Open-World Class Discovery 问题,并提出了一种深度学习框架 CD-KNet-Exp 来实现新类别的发现,利用互独法准则将有监督和无监督信息结合在一起,通过三个公共数据集和一个困难的实际射频指纹数据集的实验证明了其卓越性能。
Dec, 2020
基于先前知识,该论文提供了一个分析框架来形式化和研究已知类别如何帮助发现新的类别,通过介绍一种图论表示,引入了一种新型的 NCD 谱对比损失 (NSCL),通过最小化该目标函数,等价于因子分解图的邻接矩阵,从而得到可证明的误差界限以及 NCD 的充分必要条件。在实证上,NSCL 在常见基准数据集上能够匹配或胜过多个强基准方法,具有吸引人的实际用途和理论保证。
Aug, 2023