利用关系知识蒸馏提升对比学习
本文提出了一种名为 Distilled Contrastive Learning (DisCo) 的方法,通过将主流自监督学习方法中蕴含的最有价值的信息提取出来,然后通过约束学生模型的最终嵌入与教师模型的嵌入保持一致,从而大幅缓解模型规模减小时的性能退化问题,实验结果表明,DisCo 在所有轻型模型上取得了最先进的性能,并且在部署过程中不会引入任何额外的参数。
Apr, 2021
本文提出了一种新模型 SCKD,通过串行知识蒸馏来保留以前模型的先前知识,并通过伪样本进行对比学习,以保持不同关系样本的表示具有足够的可区分性,实现持续的少样本关系抽取任务,并在两个基准数据集上进行了验证。
May, 2023
本文提出了一种多模在线知识蒸馏方法来提高自监督视觉表征学习,通过自蒸馏和交叉蒸馏两种蒸馏模式,实现了不同模型之间的知识交互,并通过跨注意力特征搜索策略增强了不同模型之间的语义特征对齐,实现了两个异构模型相互吸收知识以提高其表征学习性能。实验证明,这种方法在不同的骨干网络和数据集上都具有较好的性能表现,并且优于现有的 SSL-KD 方法。
Apr, 2023
本文提出一种新的自监督学习方法 —— 关系自监督学习 (ReSSL) 框架,通过建模不同实例之间的关系来学习表示,采用成对相似度的锐化分布作为关系度量来匹配不同增强的特征向量,实验结果表明我们的方法在性能和训练效率方面显著优于先前的最先进算法。
Jul, 2021
本研究提出一种基于对比关系的知识蒸馏方法 CRCD,通过建立标定点并计算学生和教师关系的差异,有效地将结构性知识从教师模型转移到学生模型中,从而同时蒸馏出样本表示和样本之间的关系。实验证明了该方法的有效性。
Mar, 2021
关于关系性知识蒸馏的理论解释和在半监督分类问题中的应用,本文通过将关系性知识蒸馏转化为基于教师模型的谱聚类,并量化聚类误差来证明其有效性,并通过示例复杂度界限和群集感知的半监督学习框架进一步展示了其高标记效率。此外,通过将数据增强一致性正则化与群集感知框架统一,发现关系性知识蒸馏通过谱聚类提供了 “全局” 视角,而一致性正则化则聚焦于 “局部” 视角的扩展。
Jul, 2023
我们提出了一种利用关联距离和网络修剪的强化稳健知识蒸馏(R2KD)方法,能够有效结合数据增强以提高模型的性能。在各种数据集上进行了广泛的实验,包括 CIFAR-100、FGVR、TinyImagenet 和 ImageNet,这些实验证明了我们的方法优于当前最先进的方法。
Nov, 2023
知识蒸馏和半监督学习方法相结合的半监督学习知识蒸馏(SSLKD)方法在道路分割应用中表现出显著的学生模型性能提升,超过传统半监督学习方法的效果。
Feb, 2024
提出了一种基于知识蒸馏的自监督语音表示学习(S3RL)体系结构,用于在设备上进行关键词检测任务,通过使用双视角交叉相关蒸馏和教师的码本作为学习目标,在设备资源限制内构建自监督模型,对 Alexa 关键词检测任务表现出非凡的性能。
Jul, 2023