BECLR: 批量增强对比式少样本学习
SimCLR是一种简单的对比学习框架,通过定义有效的预测任务、引入可学习的非线性变换以及使用大型批次和更多的训练步骤来提高对比学习的效果,在ImageNet数据集上实现了比以往方法更好的自监督和半监督学习结果。
Feb, 2020
通过引入对比损失和学习算法,本研究提升了少样本分类任务中的细分子类别鉴别能力,实现了在嵌入空间中的潜在细粒度结构学习,并通过在标准小样本学习基准测试中的广泛试验验证了该方法的优越性。
Jul, 2021
本文提出了一种面向Few-Shot自监督对比学习的域自适应方法Few-Max,旨在解决在目标分布下自适应问题。使用各种来源和目标数据集对Few-Max进行了评估,证明其在表示质量方面始终优于其他方法。
Jun, 2022
本文提出了一种新的对比学习框架,将其无缝地整合到预训练阶段和元训练阶段,以提高少样本分类的性能,并使用交叉视图的情节训练机制进行最近的质心分类,并采用基于距离缩放的对比损失。
Sep, 2022
本文提出 CoMo 模型,利用预训练模型中的知识嵌入到 few-shot 分类中,包括 CLIP 的语言对比知识、DINO 的视觉对比知识和 DALL-E 的语言生成知识,通过学习多种知识方法,本文展示了在 11 个数据集上的优越性和泛化能力。
Sep, 2022
通过引入虚拟类别的概念,我们提出了一种基于语义感知的虚拟对比模型(SAVC),显著提高了基础类别的分类效果和新类别的泛化能力。
Apr, 2023
本文提出了一种简单有效的学习方案,来解决few-shot class-incremental learning中平衡新任务的欠拟合和遗忘之前任务的挑战,并在CUB200、CIFAR100和miniImagenet数据集上展现了领先的性能。
May, 2023
本文提出了BatchSampler技术,通过从输入数据中采样mini-batches,从而改进对比学习,实验表明,BatchSampler能够一直提高强大的对比模型的性能。
Jun, 2023
本研究解决了当前机器学习系统在少量标记样本下快速学习的不足,通过量化评估Masked Image Modeling(MIM)和Contrastive Learning(CL)在少样本学习任务中的影响。提出了新的Masked Image Contrastive Modeling(MICM)范式,将CL的目标对象学习优势与MIM的通用视觉特征学习能力结合,显著提升了少样本学习的效果,并在实验中显示出优于现有基准的方法。
Aug, 2024