对比学习的少样本分类
本文探讨使用反差学习作为辅助训练目标来促进更通用和可转移的特征,在此基础上提出了一种基于注意力的空间反差目标来学习本地区分和类别不可知特征。通过大量实验证明了该方法优于最先进的方法,证实了学习良好、可转移的嵌入在 few-shot 学习中的重要性。
Dec, 2020
通过引入对比损失和学习算法,本研究提升了少样本分类任务中的细分子类别鉴别能力,实现了在嵌入空间中的潜在细粒度结构学习,并通过在标准小样本学习基准测试中的广泛试验验证了该方法的优越性。
Jul, 2021
提出了一个名为 ContrastNet 的对比学习框架,来解决少样本文本分类问题中类间相似性引起的混淆和过拟合的问题。经实验证明该方法在 8 个少样本文本分类数据集上优于当前技术水平。
May, 2023
本文提出了一种简单有效的学习方案,来解决 few-shot class-incremental learning 中平衡新任务的欠拟合和遗忘之前任务的挑战,并在 CUB200、CIFAR100 和 miniImagenet 数据集上展现了领先的性能。
May, 2023
提出了基于全局和局部特征表示的多网络对比学习框架,通过多个网络引入自监督对比学习的全局和局部特征信息,并通过对比由多个网络生成的嵌入对来学习图像不同尺度上的特征信息,并扩展对比样本数,提高了模型的训练效率。在三个基准数据集上的线性评估结果表明,我们的方法优于几种现有的经典自监督学习方法。
Jun, 2023
本篇论文提出一种使用基类和新类训练样本学习全局类别表示来解决少样本学习问题的方法,该方法在训练过程中涉及到新类训练样本,并且采用了有效的样本综合策略避免过拟合,同时能够轻松扩展到更具挑战性的 FSL 场景。
Aug, 2019
本研究提出了一种简单而有效的对比学习框架来解决 Contrastive Self-supervised Learning (CSL) 中样本不足问题,将同一个输入的不同视角拉近,不同输入的视角推远,提高了视觉表征的质量,并在 ImageNet-1K 数据集上表现出了超越完全监督训练版本的性能。
Aug, 2022
本篇研究研究了在说名高成本的标注或标签问题下,如何使用监督图形对比学习,数据增强,子图编码和多尺度对比等机制,实现图形节点分类任务的有效编码器。实验表明,相比基于元学习的方法,这个新的框架可以显著提高少样本节点分类问题的性能。
Mar, 2022
本文提出了一种名为 COSMIC 的图形式的新颖对比元学习框架,并通过丰富内部类可泛化性和生成硬节点类来增强跨类可泛化性,从而使少数样本节点分类的性能得到提升。
Jun, 2023