- 重新审视互信息最大化在广义类别发现中的应用
通过信息最大化(InfoMax)概率参数分类器的视角,本文重新探讨了泛化类别发现的挑战,发现通过确保已知和未知类的独立性,同时假设在所有类别上保持均匀的概率分布,可以扩大已知和未知类之间的边界,从而提高模型的性能。为了实现上述独立性,我们提 - CVPR对比均移学习用于广义类别发现
我们提出了一种名为对比均值漂移(CMS)学习的方法,该方法在泛化图像聚类问题中使用经典而强大的均值漂移算法,并结合对比学习框架,通过均值漂移和对比更新的迭代过程来训练图像编码器,以产生具有更好聚类特性的表示。实验证明,在六个公共泛化类别发现 - CVPRCDAD-Net: 广义类别发现中的领域差距连接
在跨领域广义类别发现中,CDAD-NET 通过对源域和目标域之间的样本进行同步,强调目标数据的独特分类,并且通过三个度量学习目标的融合来保持共享空间的区分性。在实验中,CDAD-NET 在三个 AD-GCD 基准测试中表现出 8-15%的性 - ICLRSPTNet:利用空间提示调整的高效广义类别发现替代框架
一种名为 SPTNet 的两阶段适应方法,通过迭代优化模型参数和数据参数,以及考虑图像数据的空间属性的 SPT 方法,显著提高了广义类别发现任务的准确性,在 SSB 上的平均准确度高达 61.4%。
- 利用多模态 CLIP 揭示广义类别的潜力
通过引入文本信息和多模态潜力的方法,在广义类别发现任务中,我们提出了一种基于文本嵌入综合器的模型,该模型生成用于未标记样本的伪文本嵌入,并通过视觉和语义信息的相互增强,超越了现有方法,在所有广义类别发现基准上取得了新的最佳效果。
- 文本知识的重要性:跨模态共教带来的一般化视觉类别发现
通过使用强大的视觉 - 语言模型,本文提出了一个两阶段的 TextGCD 框架,通过检索式文本生成和跨模态共同教学来实现多模态的广义类别发现,并设计了自适应类别对齐策略以及软投票机制以整合多模态线索。实验证明我们的方法在八个数据集上具有较大 - CVPR主动广义类别发现
提出了一种新的主动学习设置,名为主动广义类别发现(AGCD),旨在通过主动选择有限数量的有价值样本进行标注,从而改善广义类别发现的性能。
- 内存一致性引导的分治学习方法用于广义类别发现
通过引入两个内存库记录未标记数据的历史预测,我们提出了一个记忆一致性引导的分治学习框架(MCDL),该框架利用预测一致性衡量每个样本的可信度,设计了分治学习策略来充分利用未标记数据的区分性信息,同时减小噪声标签的负面影响,通过多个基准实验结 - AAAI通用类别发现的转移和对齐网络
广义类别发现任务中,传统方法在已知类别上的表现较好,但在新颖类别上表现不佳。为了减轻这两个问题,我们提出了一种转移和对齐网络 (TAN),它包含两种知识转移机制来校准偏倚知识和两种特征对齐机制来学习判别特征。我们的结果显示,我们的模型在新颖 - 大型语言模型在循环中的广义类别发现
通过引入大型语言模型,本论文提出了一种名为 Loop 的端到端主动学习框架,以改进通用类别发现任务,提升模型性能,生成类别名称,从而解决了当前方法在未知类别上表现不佳的问题,并扩大了在实际应用中的适用范围。
- ICCV长尾识别的广义类别发现
通过研究基于长尾分布的广义类别发现 (Long-tailed GCD) 范式,以及支持稀有类别和预期类别分布的重新加权机制和类先验约束,我们提出的方法在 ImageNet100 上实现了约 6-9% 的改善,并在 CIFAR100 上取得了 - 类别发现中无唯一代表
本文提出了一个新的通用类别发现(GCD)方法,通过使用一种合成数据集 'Clevr-4' 进行研究和评估,该数据集包含四个不同的数据分割,需要模型在有标签数据集的基础上推断出类别的层次结构,解决传统无监督聚类方法存在的问题,并在实验中展示了 - 使用聚类分配一致性进行的广义类别发现
自动发现广义类别的开放式任务,使用半监督表示学习过程中获得的区分性嵌入,构建原始稀疏网络并使用社区检测方法同时获取聚类结果和类别数。
- 广义连续类别发现
我们提出了一种框架,通过连续无监督学习方法在任务中发现新的和已知的类别,称之为广义连续类别发现(GCCD)。通过实验证明,我们的方法在表示学习性能上优于已采用 GCD 技术的强大 CL 方法。
- OpenGCD:辅助通用类别发现的开放世界识别
OpenGCD 是一个开放式世界识别系统,通过将不同方法有序地结合起来,实现了自动化的未知类别识别、分类和标记,并具有良好的兼容性和性能表现。
- 联邦式广义类别发现
提出一种基于 Associated Gaussian Contrastive Learning 框架的联邦广义类别发现模型,该模型适用于在不暴露客户机训练数据的情况下协同训练,通过在服务器上聚合客户机学习的 GMM 分类生成全局 GMM 来 - CLIP-GCD: 简单的语言指导通用类别发现
本文通过引入多模态模型 (CLIP),提出了一种基于文本检索的机制,通过挖掘带标签和无标签文本库中的文本描述来实现联合图像 + 文本半监督聚类,该方法在多个数据集上得到了最优结果。
- 学习半监督高斯混合模型以用于泛化类别发现
该论文提出了一种 EM-like 框架,基于半监督的高斯混合模型,利用渐进式的原型对比学习进行表征学习,并采用聚类分配实例,从而解决不知道类数的广义类别发现问题,并在分类和物体识别上取得最先进的性能。
- CiPR: 一种具有跨实例正面关系的高效广义类别发现框架
本文提出了一种名为 CiPR 的框架来解决广义类别发现的问题,其考虑了在部分标记的数据集中自动聚类未知类别的实例,并提出了交叉实例正关系的利用以进行对比学习来引导表示,同时使用选择的邻居聚类算法进行半监督层次聚类,并提出了一种方法来估计未知 - CVPR通用类别发现的动态概念对比学习
本文提出了一种动态概念对比学习(DCCL)框架,该框架通过交替估计基本视觉概念和学习概念表示来有效地提高聚类准确性。实验结果表明,DCCL 在通用和细粒度视觉识别数据集上取得了新的最优表现,尤其是在细粒度方面表现良好。