对比学习实现少样本聚类
通过使用集群对比模型来学习友好的聚类表示,并以此为基础,提出了一种新的联邦聚类方法,称为集群对比联邦聚类(CCFC),其聚类性能甚至在某些情况下是最佳基准方法的两倍,并且在处理设备故障方面也显示出卓越的性能。
Jan, 2024
我们通过重新审视聚类,一种机器学习和数据分析中最经典的方法之一,来研究机器视觉的一个基本方面:特征的测量。我们提出了特征提取与聚类(FEC)的概念性优雅但惊人的特征提取方法,它将特征提取视为从数据中选择代表并自动捕捉底层数据分布的过程。通过对各种视觉识别模型和任务进行广泛实验,我们验证了 FEC 的有效性、普适性和可解释性。我们希望这项工作将引发对当前事实上的网格式范式的重新思考。
Mar, 2024
本文提出了一种基于对比学习的聚类方法,通过对表示进行分解,并使用分别编码不同信息的部分构建对比损失函数,可以高效地学习聚类结果。实验结果表明,该方法在多个标准数据集上取得了最新的甚至高居领先的聚类性能,尤其在 ImageNet 数据集上的准确率达到了 53.4%,并且优于现有方法。
Jun, 2023
本文提出了一种新的对比学习框架,将其无缝地整合到预训练阶段和元训练阶段,以提高少样本分类的性能,并使用交叉视图的情节训练机制进行最近的质心分类,并采用基于距离缩放的对比损失。
Sep, 2022
用于无监督少样本学习的动态聚类内存模块 (DyCE) 和基于优化传输的分布对齐策略 (OpTA) 构成的全新端到端方法 (BECLR),在现有的无监督少样本学习基准中取得了新的最优表现,明显优于当前最佳基准。
Feb, 2024
本文提出了一种名为 CCL 的基于聚类的对比学习方法,利用聚类得到的标签和视频约束来学习具有区分性的人脸特征,展示了该方法在视频人脸聚类的表征学习任务上的显著成果。
Apr, 2020
本文提出一种名为对比聚类 (Contrastive Clustering,CC) 的在线聚类方法,该方法实现了实例级和簇级对比学习,通过最大化正样本对的相似度和最小化负样本对的相似度,在特征空间中分别进行行级和列级的对比学习,同时优化实例级和簇级对比损失,在端到端的方式下联合学习表示和簇分配。实验结果表明,CC 在六项具有挑战性的图像基准任务中显着优于 17 种竞争对手的聚类方法,特别是在 CIFAR-10 和 CIFAR-100 数据集上,CC 的 NMI 分别为 0.705 和 0.431,相较于最佳基线提高了多达 19% 和 39%。
Sep, 2020
提出 TLCE 模型,利用多个预训练模型提高新旧类别的区分度。通过使用史诗式训练将旧类别图像映射到准正交原型以减少新旧类别的干扰,并通过集成多样的预训练模型适应数据不平衡的情况,从而在各种数据集上实验证明我们的转移学习集成方法优于最先进的少样本增量学习方法。
Dec, 2023
本文提出了一种简单有效的学习方案,来解决 few-shot class-incremental learning 中平衡新任务的欠拟合和遗忘之前任务的挑战,并在 CUB200、CIFAR100 和 miniImagenet 数据集上展现了领先的性能。
May, 2023