主动广义类别发现
提出一种基于 Associated Gaussian Contrastive Learning 框架的联邦广义类别发现模型,该模型适用于在不暴露客户机训练数据的情况下协同训练,通过在服务器上聚合客户机学习的 GMM 分类生成全局 GMM 来生成更全面的类别知识,本地 GCL 使用有限的本地数据学习鲁棒的表示,全局 GCL 使用综合的类别关系鼓励模型产生更具有区分度的表示,实验表明该模型优于 FedAvg 基线。
May, 2023
本文提出了一种动态概念对比学习(DCCL)框架,该框架通过交替估计基本视觉概念和学习概念表示来有效地提高聚类准确性。实验结果表明,DCCL 在通用和细粒度视觉识别数据集上取得了新的最优表现,尤其是在细粒度方面表现良好。
Mar, 2023
通过研究基于长尾分布的广义类别发现 (Long-tailed GCD) 范式,以及支持稀有类别和预期类别分布的重新加权机制和类先验约束,我们提出的方法在 ImageNet100 上实现了约 6-9% 的改善,并在 CIFAR100 上取得了有竞争力的性能。
Dec, 2023
本论文探讨如何在新(未知)目标的情况下正确归类图像,并提出了一种新的基于非参数分类组合的高效采样方法,以缓解灾难性遗忘,并通过提出的基准数据集 iNatIGCD 在实验中表现优异。
Apr, 2023
不平衡的广义类别发现(ImbaGCD)是一个具有挑战性且实用的问题,该问题在未标记的数据集中,已知类别的分布偏向于常见类别而不是罕见类别。为了解决这些问题,我们提出了一种新的基于最优传输的期望最大化框架(ImbaGCD),通过对齐边际类别先验分布来完成广义类别发现,并在 GCD 设置下结合了一种估计不平衡类别先验分布的系统机制。我们的全面实验表明,ImbaGCD 在 CIFAR-100 上改进了约 2-4%,在 ImageNet-100 上改进了 15-19%,表明其在解决不平衡 GCD 问题方面具有优越的效果。
Dec, 2023
我们提出了一种框架,通过连续无监督学习方法在任务中发现新的和已知的类别,称之为广义连续类别发现(GCCD)。通过实验证明,我们的方法在表示学习性能上优于已采用 GCD 技术的强大 CL 方法。
Aug, 2023
通过引入大型语言模型,本论文提出了一种名为 Loop 的端到端主动学习框架,以改进通用类别发现任务,提升模型性能,生成类别名称,从而解决了当前方法在未知类别上表现不佳的问题,并扩大了在实际应用中的适用范围。
Dec, 2023
我们提出了一种名为 MetaGCD 的方法,使用元学习框架和基于邻域的对比网络,实现了在已知类别中持续发现新类别的能力,并通过实验结果展示了该方法的优越性。
Aug, 2023
通过引入两个内存库记录未标记数据的历史预测,我们提出了一个记忆一致性引导的分治学习框架(MCDL),该框架利用预测一致性衡量每个样本的可信度,设计了分治学习策略来充分利用未标记数据的区分性信息,同时减小噪声标签的负面影响,通过多个基准实验结果证明了我们方法的广泛性和优越性,我们的方法在通用图像识别和具有挑战性的语义转换任务中(分别在 CUB 上获得 8.4%的增益和斯坦福汽车上获得 8.1%的增益)大幅超过了现有先进模型。
Jan, 2024